MEMOIRE Les probabilités non commutatives et représentation

publicité
REPUBLIQUE ALGERIENNE DEMOCRATIQUE ET POPULAIRE
MINISTERE DE L’ENSEIGNEMENT SUPPERIEUR ET DE LA RECHERCHE
SCIENTIFIQUE.
UNIVERSITE FERHAT ABBAS-SETIF.
MEMOIRE
Présenté à la Faculté des Sciences
Département de Mathématiques
Pour L’obtention du diplôme de
MAGISTER
OPTION : Mathématiques Fondamentales
Par
Melle : BOUFELGHA Nabila
THEME
Les probabilités non commutatives et représentation
probabiliste à la solution de l'équation
de Schrödinger.
Soutenu le : 19 /9 /2013.
Devant le jury :
Président
Encadreur
Examinateur
Pr. ZIADI Abdelkader
Pr. BENCHERIF MADANI Abdelatif
Pr. MANSOURI Abdelaziz
Université de Sétif.
Université de Sétif.
Université de Sétif.
Remerciements
J'exprime toute ma reconnaissance à monsieur
A. BENCHERIF MADANI, Professeur à l'université de
Ferhat Abbas Sétif, pour avoir assuré
l'encadrement de ce travail. Je le
remercie pour son soutien,
son orientation et ses
conseils.
Je tiens aussi à remercier vivement Monsieur
président d'avoir accepté
de présider ce jury.
Enfin, je remercie toute personne ayant
participé de près ou de loin pour
.la réalisation de ce travail
N . BOUFELGHA
Table des matières
Introduction
3
1 Histoire de la mécanique quantique
7
1.1 Panorama de la mécanique classique . . . . . . . . . . . . . . . . . . . .
7
1.2 Concepts fondamentaux . . . . . . . . . . . . . . . . . . . . . . . . . . .
11
1.3 Bref historique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12
1.3.1
De la mécanique classique à la mécanique quantique . . . . . . . .
12
1.3.2
La mécanique quantique depuis 1925 . . . . . . . . . . . . . . . .
13
1.4 Les lois de rayonnement d’un corps noir . . . . . . . . . . . . . . . . . . .
15
1.4.1
Loi de Wien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
16
1.4.2
Loi de Rayleigh-Jeans . . . . . . . . . . . . . . . . . . . . . . . .
16
1.4.3
Loi de Max Planck . . . . . . . . . . . . . . . . . . . . . . . . . .
18
1.5 Les principaux modèles atomiques . . . . . . . . . . . . . . . . . . . . . .
18
1.6 Probabilité, Fonction d’onde, Equation de Schrödinger . . . . . . . . . .
20
1.6.1
Description probabiliste et densité de probabilité
. . . . . . . . .
20
1.6.2
Fonction d’onde . . . . . . . . . . . . . . . . . . . . . . . . . . . .
21
1.6.3
Equation de Schrödinger . . . . . . . . . . . . . . . . . . . . . . .
21
1.7 Notations de Dirac . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
23
1.8 Ondes de De Broglie et dualité onde-corpuscule . . . . . . . . . . . . . .
25
1.9 Le principe d’incertitude de Heisenberg . . . . . . . . . . . . . . . . . . .
27
1.10 Les axiomes de base de la mécanique quantique . . . . . . . . . . . . . .
27
1
1.11 Résumé des relations entre mécanique classique et mécanique quantique .
31
1.12 Les grands hommes de la mécanique quantique . . . . . . . . . . . . . . .
33
2 Probabilité non commutative
36
2.1 Probabilité classique . . . . . . . . . . . . . . . . . . . . . . . . . . . .
36
2.1.1
Espace fondamental . . . . . . . . . . . . . . . . . . . . . . . . . .
37
2.1.2
Indépendance, espérance conditionnelle . . . . . . . . . . . . . . .
39
2.1.3
processus stochastiques . . . . . . . . . . . . . . . . . . . . . . . .
41
2.1.4
Mouvement brownien . . . . . . . . . . . . . . . . . . . . . . . . .
43
2.1.5
Processus de Poisson . . . . . . . . . . . . . . . . . . . . . . . . .
47
2.1.6
Propriété de martingale . . . . . . . . . . . . . . . . . . . . . . .
50
2.1.7
Processus de Markov . . . . . . . . . . . . . . . . . . . . . . . . .
51
2.1.8
Processus de Markov de saut pur . . . . . . . . . . . . . . . . . .
53
2.1.9
L’intégrale stochastique
. . . . . . . . . . . . . . . . . . . . . . .
55
2.2 Espace de Fock poissonien . . . . . . . . . . . . . . . . . . . . . . . . . .
59
2.2.1
Opérateur d’annihilation . . . . . . . . . . . . . . . . . . . . . . .
61
2.2.2
Opérateur de création . . . . . . . . . . . . . . . . . . . . . . . .
61
2.3 Probabilité non commutative . . . . . . . . . . . . . . . . . . . . . .
63
2.3.1
Rappels sur analyse fonctionnelle et Espace de Hilbert . . . . . .
63
2.3.2
Semi-groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
72
2.3.3
Probabilité non commutative . . . . . . . . . . . . . . . . . . . .
77
2.3.4
Espace de Fock complexe . . . . . . . . . . . . . . . . . . . . . . .
80
3 Représentation probabiliste de la solution de l’équation de Schrödinger 83
3.1 Propriétés approfondies de l’opérateur d’impulsion
. . . . . . . . . . . .
83
3.1.1
Spectre de l’opérateur p^ . . . . . . . . . . . . . . . . . . . . . . .
84
3.1.2
Action de l’opérateur exp (it^
p) sur des fonctions . . . . . . . . . .
85
3.2 Représentation probabiliste de la solution d’équations integrodi¤érentielles
paraboliques classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2
86
3.2.1
EDP di¤érentielle . . . . . . . . . . . . . . . . . . . . . . . . . . .
86
3.2.2
EDP intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
87
3.3 Représentation en p de l’équation de Schrödinger . . . . . . . . . . . . .
93
3.4 Représentation probabiliste de la solution de l’équation de Schrödinger .
98
3.4.1
Traitement de la première fonctionnelle additive . . . . . . . . . .
98
3.4.2
Traitement de la deuxième fonctionnelle additive
99
. . . . . . . . .
3.5 D’autres représentations . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
Bibliographie
102
3
Introduction
Le but de ce mémoire de magister est de donner une représentation probabiliste à la
solution de l’équation de Schrödinger, voir Blokhintsev [6] page 115
~2
2m
(0; x) = f (x) ;
i~@t (t; x) =
(t; x) + V (x)
(t; x) ;
(1)
h
, m la masse et V est un terme de potentiel ; on prendra plus tard au chapitre
2
III un potentiel périodique car on a en vue de faire de l’homogénéisation périodique, voir
où ~ =
[25], on prendra V (x) =
0
cos kx où, k 2 R+ . S’il n’y avait pas de complexe i, on aurait
une simple équation de di¤usion pour laquelle, pour V (x)
0 et plus le Laplacien,
est donnée par la formule de Feynmann-Kac
x
(t; x) = E f (Bt ) exp(
Z
t
V (Bs )ds);
0
où Bt est un mouvement brownien. Notons qu’on peut aussi donner une représentation
analogue si le potentiel est de signe quelconque, mais il y a de gros problèmes mathématiques. Maintenant en présence de i la situation est très di¤érente car on est potentiellement en temps imaginaire. Le concept même de probabilité est absent. C’est grâce aux
physiciens de la mécanique quantique qu’un concept de probabilité peut être donné. De
nos jours, cette nouvelle probabilité s’appelle probabilité non commutative.
Dans notre mémoire, il nous a semblé utile d’exposer d’abord, au chapitre I, quelques
notions de mécanique quantique. Ensuite au chapitre II, s’étant acclimaté aux concepts
4
étranges de la mécanique quantique, on expose quelques notions de probabilité non commutative ; en commençant par les probabilités classiques dans lesquelles …gureront le
mouvement brownien, le processus de poisson et quelque notions d’intégrale stochastique.
Au chapitre III en…n, on donne une représentation probabiliste de la solution
en
terme de processus de Poisson. Ceci semble très étrange et sera la caractéristique fondamentale des phénomènes quantiques : ils correspondent aux processus de sauts, contrairement aux processus de di¤usions exprimés par des équations de la chaleur sans le
complexe i. Cette représentation est encore un tant- soit-peu classique, mais le processus
de Poisson n’est pas utilisé de manière classique car on a des mesures complexes sur
l’espace des trajectoires. Cette astuce remplace l’utilisation des probabilités classiques
au lieu des probabilités non commutatives proprement dites. Dans notre présentation
on explicite des manipulations de Konstantinov et Al. [15] et Kolokoltsov [14] laissées
pour "faciles" ou bien connues ; pourtant ces vides ne nous sont pas familiers. Nous nous
demandons même si les vides que nous avons remplis ne sont-ils pas une redécouverte, au
moins partielle, de l’article [18]. Nous remarquerons la chose suivante qui constitue une
espèce de dualité entre le processus de Poisson et le mouvement brownien (déjà soulignée
en page 64 dans [5]) : dans l’équation de Schrödinger en x on a un laplacien et un potentiel tandis que dans la représentation en p un processus de Poisson fait son entrée avec
un générateur créé par le potentiel alors que le laplacien donnera un terme de potentiel !
D’autres articles sur le même sujet sont : [3], [5], [24] et [13].
Le temps nous a manqué dans ce problème ardu pour explorer l’utilisation e¤ective
de l’appareil non commutatif, notamment l’utilisation d’un espace de Fock. Nous allons
nous contenter de donner un espace de Fock classique associé au processus de Poisson.
Ceci nous mènera aux intégrales stochastiques multiples. Nous espérons dans une étude
ultérieure établir le lien entre cet espace de Fock et la représentation que nous avons donnée. Cependant, on peut déjà envisager l’homogénéisation de l’équation de Schrödinger
comme dans [25] en suivant une méthode probabiliste, mais non commutative, comme
dans [2] dans le cas classique.
5
Nous suivrons les ouvrages [1], [4], [9], [10], [16], [20], [23], [27], [28] et [30].
6
Chapitre 1
Histoire de la mécanique quantique
La mécanique quantique est la science la plus mystérieuse. Elle traite du niveau le
plus fondamental de la réalité, celui des particules (atomes, électrons, photons, . . . ). La
mécanique quantique a fait entrer dans la physique des concepts radicalement nouveaux :
dualité onde-corpuscule, superposition d’états, e¤et de l’observateur, probabilités, etc...
Par ailleurs, la mécanique quantique est un sujet favori pour ceux qui tiennent des discours irrationnels sur la réalité, qu’ils soient philosophes, gourous du nouvel-age ou même
physiciens.
Ainsi, la mécanique quantique nous révèlerait une réalité indé…nie, indéterministe,
contradictoire et subjective ; il existerait un lien profond entre la conscience et le niveau
le plus ultime de la réalité, retour de l’humain au centre de l’univers.
Mais pour bien mettre en évidence la relation et le passage de la mécanique classique à
la mécanique quantique, étudions d’abord les principaux traits de la mécanique classique.
1.1
Panorama de la mécanique classique
Les théories classiques sont un ensemble de lois qui rendent compte des phénomènes
macroscopiques (phénomènes mettant en jeu des dimensions et énergie à l’échelle humaine). Le traitement macroscopique de la matière a conduit à la mécanique classique de
7
Newton, et celui du rayonnement, aux équations de Maxwell. Toutefois, ces lois classiques
présentent des insu¢ sances pour traiter le comportement microscopique de l’univers : il
va falloir traiter la matière et le rayonnement avec des lois di¤érentes.
On étudie un corps matériel assimilé à un point matériel de masse m qui évolue dans
un champ potentiel V , par exemple un corps en chute libre qui tombe grâce à l’attraction
!
!
gravitationnelle de Newton. Celui-ci est soumis à une force f = rV et on obtient
une équation di¤érentielle d’ordre deux dont la solution dépend de deux constantes arbitraires qui doivent être …xées par deux conditions initiales : la position et la vitesse.
Le mouvement d’une particule de masse m, position x0 et vitesse v0 est complètement
déterminé et est décrit à l’aide des lois de Newton à chaque instant t si nous connaissons
!
la force totale f agissant sur la particule. En e¤et, en mécanique classique, la position
et la vitesse d’une particule sont tous les deux exactement déterminés en tout temps.
L’énergie E d’une particule est une fonction continue de la vitesse de cette particule. On
en déduit l’équation di¤érentielle suivante :
dp
= E.
dt
(1.1)
Le progrès suivant est dû à Lagrange qui introduisit l’outil géométrique, de manière
systématique, pour la première fois ce qui permet le traitement e¢ cace des liaisons par
exemple. On a n coordonnées généralisées q (on dit aussi n degrés de liberté) et le
mouvement réel se fait sur une variété M de dimension n. Les vitesses sont alors tangentes
à cette variété qui est parametrisée par ces q.
Un autre développement est dû à Hamilton, en poussant plus loin encore l’utilisation
de l’outil géométrique. Au lieu de l’espace de con…guration de dimension n Hamilton
considère une variété de dimension 2n, appelée l’espace des phases, i.e. la variété
[x2M T Mx ,
8
et on a le système de 2n équations di¤erentielles d’ordre 1
dH
dqi
=
;
dt
dpi
dpi
dH
=
+ Qi ,
dt
dqi
où Qi sont les forces généralisées non potentielles.
Le dernier point de vue est celui de Jacobi, Liouville etc. , on l’on introduit explicitement un crochet de Lie. En e¤et, on sait qu’une équation di¤erentielle ordinaire (f
peut être un champ de vecteurs dé…ni dans un domaine U de Rn ) dX=dt = f (t; X (t)),
X (t) 2 Rn , d’ordre n est résolue si l’on connait explicitement n intégrales premières. Une
intégrale première est une fonction I d’espace Rn , tq I [X (t)] reste constante au cours
du temps. Un célèbre théorème de Jacobi dit que le crochet de Poisson
[I1 ; I2 ] =
n
X
i=1
@I1 @I2
@qi @pi
@I1 @I2
@pi @qi
(1.2)
de deux intégrales premières I1 et I2 est encore une intégrale première. En mécanique
quantique on cherchera à quanti…er ces formules où le crochet de Poisson-Lie deviendra
un commutateur
d
Xt = i[H; Xt ],
dt
X0 = X,
où Xt = exp (itH) X0 exp ( itH) est un opérarteure auto-adjoint représente un grandeur
physique à l’insten t, H est l’hamiltonien, et le commutateur [H; Xt ] = HXt
Xt H qui
est à comparer avec 1.2.
Le trait le plus remarquable entre la mécanique classique et la mécanique quantique
est que les grandeurs physiques classiques vont devenir les valeurs propres d’opérateurs
autoadjoints sur un espace de Hilbert. La position x correspondra à l’opérateur de mul-
9
tiplication et l’impulsion p correspondra à l’opérateur autoadjoint pb, voir chapitre III
3.1,
pb =
(1.3)
{~r:
Le spectre d’un opérateur peut être discret ou continu. L’énergie, par exemple, est
associée à un spectre discret alors que la position ou le moment sera continu.
Une équation di¤érentielle autonome est dé…nie par dX=dt = f (X). Une solution de
cette équation est une application di¤érentiable
I est un intervalle de temps). L’image de
de phase et le graphe de
élargi. Une solution
(t0 ) =
0,
t.q. d (t)=dt = f ( (t)), 8t 2 I (où
s’appelle orbite, ou trajectoire, ou courbe
une courbe intégrale. L’espace I
véri…e la condition initiale (t0 ;
i.e si la courbe intégrale passe par (t0 ;
Exemple 1
0)
0 ).
U est l’espace des phases
de l’espace des phases élargi si
Voici quelques exemples.
– particule dans le champ de gravitation Nous supposons constant
le champ de forces de gravitation au voisinage du sol. Si x est la hauteur, la dynamique (masse unité) est x• =
g. Tout mouvement d’une particule est dé…ni par la
position et l’impulsion. L’espace de phases sera donc de dimension 2 : (x1 ; x2 ) où
x1 = x désigne la position et x2 = x_ l’impulsion. Nous obtenons donc ici
x_ 1 = x2 ; x_ 2 =
g.
– le pendule rigide Il s’agit de décrire le mouvement d’une masse m placée à
l’extrémité d’une tige rigide sans masse de longueur l: L’équation dynamique est
ici I • =
mgl sin
où
est l’angle de la tige avec la verticale et I = ml2 le
moment d’inertie. On obtient • =
avec k = g=l. L’espace des phases est
k sin
de dimension 2, avec les variables x1 =
et x2 = _ . Prenant k = 1, on obtient les
équations :
x_ 1 = x2 ; x_ 2 =
– Petites oscillations du pendule rigide
10
sin x1 .
On s’intéresse aux petites oscillations
de ce pendule. Lorsque
est petit, l’approximation de sin
par
est valable. On
obtient alors
x_ 1 = x2 ; x_ 2 =
x1 .
– Petites oscillations du pendule sphérique Ce qui précède correspondait au cas
où le mouvement se situait dans un plan. Sinon, l’écart par rapport à la verticale
est décrit par deux angles, (l’espace des phases est une sphère si l’on modélise le
pendule qui est alors appelé pendule sphérique, et les angles sont la latitude et la
longitude par exemple). On aura alors un espace des phases de dimension 4, et les
équations de la dynamique suivantes pour les petites oscillations :
x_ 1 = x2 ; x_ 2 =
1.2
x1 ; x3 = x4 ; x_ 4 =
x3 .
Concepts fondamentaux
L’e¤et photoélectrique
Découvert en 1887 par Hertz (Heinsrich Rudolf), l’e¤et photoélectrique peut être
facilement mis en évidence en éclairant une plaque métallique : sous l’action du rayon
lumineux, des électrons “sautent” du métal. C’est cet e¤et qui donne aux panneaux
solaires leur raison d’être.
Cependant, il est véri…é expérimentalement que les électrons ne sont émis que si la
fréquence du rayonnement est supérieure à un certain seuil, qui dépend du matériau, alors
que leur nombre, qui détermine l’intensité du courant créé, est proportionnel à l’intensité
de la source lumineuse. Cet e¤et ne peut être expliqué de manière satisfaisante si l’on
considère que la lumière est une onde. Cette idée est solidement ancrée à l’époque et
permet d’expliquer nombres de phénomènes où la lumière intervient, tel l’optique.
Le problème vient du fait que si l’on considère la lumière comme une onde, en augmentant son intensité, on devrait pouvoir fournir su¢ samment d’énergie au matériau
pour libérer un électron, ce qui n’est ici manifestement pas le cas.
11
A. Einstein résoud ce “paradoxe”en faisant l’hypothèse de non divisibilité à l’in…ni de
la lumière : il considère la lumière comme une pluie de corpuscule, les photons. Chaque
photon possède alors une énergie proportionnelle à la fréquence du rayonnement : E = h
(Relation de Planck-Einstein, où h est la constante de Planck. ).
Ainsi, augmenter l’intensité du faisceau lumineux n’augmente pas l’énergie des photons mais leur nombre et du coup, la fréquence est le seul critère permettant d’arracher
ou non un électron à la plaque. Il est à noter que le premier à avoir mis en évidence la
quanti…cation d’une propriété physique est Planck (d’où sa constante) dans une théorie
visant à expliquer la nature du rayonnement du corps noir à partir de la notion d’échanges
discontinus avec la matière.
1.3
1.3.1
Bref historique
De la mécanique classique à la mécanique quantique
Au début du 20e siècle, alors qu’il devient possible de faire des expériences à l’échelle
microscopique, on découvre que la physique classique ne s’applique pas. En vertu de quoi
Planck doit rejeter, en 1900, l’idée que la lumière est un phénomène continu et émet
l’hypothèse qu’elle est émise en quanta, ou paquets d’énergie.
Cette même discrétisation de l’énergie est nécessaire, comme le découvre Einstein en
1905, pour expliquer l’e¤et photoélectrique. Tout cela mène Einstein à postuler, en 1912,
la dualité onde-corpuscule : la lumière serait une onde, mais composée de corpuscules,
qu’on nomme photons. Bohr présente par la suite, en 1913, un nouveau modèle de l’atome
dans lequel il y a une discontinuité entre les niveaux d’énergie possibles pour les électrons.
Ainsi, les électrons dans un atome ne peuvent circuler que sur certaines orbites bien
précises autour du noyau. Ils ne peuvent jamais se trouver entre deux orbites permises.
Les électrons passent d’une orbite à l’autre par ce que l’on nomme un saut quantique.
En 1924, L. De Broglie va plus loin que l’idée de Planck et d’Einstein selon laquelle
les ondes lumineuses sont composées de corpuscules. Il propose que la matière elle-même
12
possède une dualité onde-corpuscule (i.e une dualité onde-petite bille dure) : il associe des
ondes aux corpuscules de matière. Cette idée sera con…rmée en 1927 par une expérience de
di¤raction d’électrons, la di¤raction étant un phénomène ondulatoire qui fut ici observé
chez des particules de la matière.
Alors qu’en physique classique, la position et la vitesse d’un corps matériel fournissent
une description complète de son état (si la masse et la charge électrique sont connues),
les découvertes à l’échelle microscopique de la réalité demandent que l’on fasse appel
à un nouveau type d’état, le spin. Le spin est une grandeur physique abstraite qui n’a
aucun équivalent en physique classique. La seule manière dont on peut le visualiser est
en recourant à une représentation selon laquelle le spin est la rotation d’une particule sur
elle-même.
1.3.2
La mécanique quantique depuis 1925
La mécanique quantique est un domaine qui regroupe cinq théories et quatre formalismes mathématiques équivalents.
Une première théorie quantique véritable est présentée en 1925 par Heisenberg : la
mécanique des matrices. L’année suivante, Schrödinger propose une seconde théorie, la
mécanique ondulatoire, fondée sur le concept de paquet d’ondes ainsi que sur le calcul
di¤érentiel et intégral. Schrödinger montre ensuite l’équivalence entre sa théorie et celle
de Heisenberg. En 1927, c’est au tour de Dirac d’entrer en scène avec son formalisme
mathématique des vecteurs d’états. Il démontre que son formalisme des vecteurs d’états
est non seulement équivalent au formalisme des matrices de Heisenberg et à celui des
fonctions d’onde de Schrödinger, mais qu’il est plus général.
Ces trois premières théories, que l’on peut désigner collectivement par l’expression «
mécanique quantique non relativiste » (car elles ne sont valides que pour des particules
se déplaçant à des vitesses très inférieures à celle de la lumière), ou encore « mécanique
quantique » tout court, sont di¤érentes, mais équivalentes. Dans un désir de développer
une physique uni…ée, on cherche une mécanique quantique qui soit compatible avec les
13
deux théories de la relativité, restreinte et générale. En 1928, Dirac réussit à uni…er
sa mécanique des vecteurs d’états avec la relativité restreinte. La mécanique quantique
relativiste de Dirac a une application très limitée. Elle a cependant un grand mérite : alors
que le spin est une grandeur physique qui doit être incorporée aux trois premières théories
par un postulat supplémentaire, il devient une conséquence naturelle de la mécanique
quantique relativiste de Dirac. De plus, Dirac prédit en 1930, à partir de sa mécanique
quantique relativiste, l’existence de l’antimatière.
Les antiparticules seraient des des particules ordinaires d’énergie négative , c’est-à-dire
des états inoccupés. Dirac dira même que l’antiélectron, devant avoir une charge positive,
et le proton constitue une seule et même particule. En 1931, Dirac modi…e sa prédiction :
les antiparticules seraient des particules totalement nouvelles Les antiélectrons seraient
des électrons de charge positive, mais non des protons. Cette seconde conception de
l’antimatière est celle qui est aujourd’hui en vigueur. La prédiction corrigée de Dirac sera
con…rmée expérimentalement par Carl Anderson en 1932
1933 : Anderson découvre,
dans le rayonnement cosmique, des traces laissées par des électrons positifs, qu’il nomme
positrons. La recherche d’une théorie satisfaisante qui uni…e mécanique quantique et
relativité se poursuit.
En 1948, une nouvelle théorie voit le jour : la théorie quantique des champs. Elle uni…e
mécanique quantique et relativité restreinte et ne sou¤re pas des limites de la mécanique
quantique relativiste de Dirac. Elle s’énonce dans un nouveau formalisme mathématique,
celui des intégrales de chemin de Feynman. La théorie quantique des champs continue
de se développer depuis 1948 et discute aujourd’hui des quatre forces fondamentales qui
régissent tous les phénomènes physiques connus, soit la force gravitationnelle, la force
électromagnétique et les forces nucléaires faible et forte. Notons que ces deux dernières
forces ne se manifestent qu’à l’échelle des noyaux atomiques ; mis à part les phénomènes
de la physique nucléaire, tous les phénomènes physiques connus sont régis par les forces
gravitationnelle et électromagnétique. Chacune de ces quatre forces est engendrée par son
propre champs. Notons qu’à ce jour, seulement trois des quatre champs sont quanti…és
14
par cette théorie, i.e décrits, dans un formalisme mathématique cohérent et concordant
avec les faits, comme étant composés de particules. Le seul qui fait exception est le champ
gravitationnel : la théorie quantique des champs n’a pas encore réussi à en produire une
description quanti…ée cohérente et concordante.
La théorie quantique des champs, que l’on désigne aussi par l’expression physique des
particules, est la théorie physique la plus générale aujourd’hui. Elle est toujours l’objet
de recherches.
Les physiciens sont notamment à la recherche de la « théorie du tout » , qui permettrait de véritablement incorporer la gravitation à la théorie quantique des champs. Or, la
théorie de la gravitation la plus générale dont disposent les physiciens aujourd’hui est la
relativité générale. La « quête du Saint-Graal » de la physique d’aujourd’hui est ainsi de
tenter d’uni…er la théorie quantique des champs et la relativité générale en une seule et
unique « théorie du tout » .Des solutions potentielles comprennent la théorie des cordes,
la théorie des membranes et la théorie de la gravitation quantique.
1.4
Les lois de rayonnement d’un corps noir
A la …n du 19e siècle, les physiciens essayaient de comprendre le spectre du rayonnement des corps noirs en se fondant sur la physique classique, la physique statistique
et l’électrodynamique classique. Des hypothèses contradictoires (loi de Wien, loi de
Rayleigh-Jeans) et une concordance seulement partielle avec les résultats expérimentaux conduisirent à une situation non satisfaisante. C’est Max Planck qui, à la …n du
siècle, réussit à trouver une loi de rayonnement complètement en accord avec les mesures
expérimentales.
Le corps noir est un objet idéal qui absorberait toute l’énergie électromagnétique qu’il
recevrait, sans en ré‡échir ni en transmettre. L’objet réel qui se raproche le plus de ce
modèle est l’intérieur d’un four. A…n de pouvoir étudier le rayonnement dans cette cavité,
une de ses faces est percée d’un petit trou laissant s’échapper une minuscule fraction du
15
rayonnement intene. Chaque paroi du four émet et absorbe du rayonnement. Il y a ainsi
échange d’énergie entre les parois, jusqu’à ce que l’objet atteigne l’équilibre thermique.
La répartition de la quantité d’énergie émise, en fonction de la longueur d’onde, forme
le spectre. Celui-ci est la signature d’un rayonnement purement thermique. Il s’appelle
donc spectre du corps noir et ne dépend que de la température du four.
1.4.1
Loi de Wien
La loi du rayonnement de Wien caractérise la dépendance du rayonnement du corps
noir à la longueur d’onde.Il s’agit d’une formule empirique proposée par Wien, qui rend
compte de la loi du déplacement de Wien.
Dans sa forme donnée par Wien en 1896, elle s’écrit :
=
C 1
c ,
5
e T
avec
:
Exitance énergétique monochromatique,
:
longueur d’onde,
10
16
m4 kg s
3
(constante de rayonnement),
C
3; 742
c
0; 01439 m k (constante de rayonnement),
T :
température en kelvins.
Cette loi décrit e¤ectivement la présence d’un maximum de rayonnement, mais,
contrairement à la loi de Rayleigh-Jeans, elle fournit des valeurs fausses pour les grandes
longueurs d’onde.
1.4.2
Loi de Rayleigh-Jeans
La loi de Rayleigh-Jeans est une loi proposée au 19e siècle par J. William, S. Rayleigh et J.Jeans a…n d’exprimer la distribution de la luminance spectrale énergétique du
rayonnement thermique du corps noir en fonction de la température dans le domaine des
16
grandes longueurs d’ondes.
Considérons le cas d’une cavité cubique de côté L et de volumeV , dont les parois
sont parfaitement ré‡échissantes. A l’équilibre, ne peuvent y apparaître que des ondes
stationnaires. Ces ondes peuvent être dirigées suivant n’importe quelle direction, mais
doivent satisfaire à une même condition : un nombre entier de demies-longueurs d’onde
doit passer entre deux surfaces parallèles de la cavité. Il ne peut donc y avoir que certains
états vibratoires discrets. Le rayonnement total à l’intérieur de la cavité provient de ces
8 V
di¤érentes ondes stationnaires. Il y a 3 2 d états vibratoires possibles dans l’intervalle
C
de fréquences entre et + d . (le nombre d’états vibratoires possibles augmente avec la
fréquences). La densité d’états, c’est-à-dire le nombre d’états vibratoires possibles dans
l’intervalle de fréquences entre
et
+ d et par unité de volume, vaut :
n( )d =
8
C3
2
d .
En considérant ces états vibratoires comme des oscillateurs harmoniques de fréquence
, on devrait s’attendre d’après le théorème d’équipartition de l’énergie à ce que, à
l’équilibre thermique du milieu à la température T , chaque oscillateur porte l’énergie
cinétique KT =2 et l’énergie potentielle KT =2, soit une énergie totale de KT . La densité
d’énergie dans la cavité dans l’intervalle de fréquence entre
E ( )d =
8
KT
C3
2
et
+ d serait alors :
d :
Ceci est la loi de rayonnement de Rayleigh-Jeans. Cette loi, qui suggérait une croissance
sans limite de la luminance dans le domaine des faibles longueurs d’ondes, n’était pas
véri…ée par l’expérience dans l’ultra-violet ; c’est ce qu’on appelle la catastrophe ultraviolette. C’est ce qui conduisit Max Planck à proposer une loi valable sur la totalité du
spectre : la loi de Planck. Ainsi, la loi de Rayleigh-Jeans est une approximation de la loi
hc
de Planck, utilisable lorsque
, avec h = 6; 62617 10 34 J s.
KT
17
1.4.3
Loi de Max Planck
La loi de Planck décrit la répartition de l’énergie électromagnétique (ou la répartition de la densité de photons) rayonnée par un corps noir à une température donnée, en
fonction de la longueur d’onde. Rayonnement complètement en accord avec les mesures
expérimentales. Outre l’importance pratique du corps noir, la découverte de la loi de
Planck en 1900 signe la naissance de la mécanique quantique : pour expliquer sa loi trouvée de manière empirique, Planck a dû supposer que la lumière (et donc le rayonnement
électromagnétique en général) n’était pas absorbée et émise de manière continue, mais
uniquement de manière discrète. La luminance énergétique monochromatique d’un corps
noir à la température absolue T vaut
Selon la fréquence :
L =
2h 3
c2 e(h
1
=KT )
1
.
Selon la longueur d’onde :
L =
2hc2
5
1
ehc= KT
1
.
Où c la vitesse de la lumière dans le vide et K est la constante de Boltzmann.
Pour comparaison des di¤érentes lois de rayonnement (Rayleigh-Jeans, Wien et Planck),
lorcque les lois de Planck et de Rayleigh-Jeans s’accordent bien aux plus basses fréquences
et les lois de Planck et de Wien s’accordent bien aux plus hautes fréquences.
Avant de continuer vers un traitement plus rigoureux, il nous a semblé bon de montrer
la hiérarchie et considerer l’atome lui même.
1.5
Les principaux modèles atomiques
Comme il est impossible de photographier un atome ou une molécule, il faut représenter la réalité par un modèle plus ou moins précis. Le but du modèle, c’est expliquer
18
aussi simplement que possible un phénomène très complexe :
Le modèle de Dalton (1798)
Sphère compacte. Tous les atomes d’un même élément sont identiques ; chaque élément
possède sa propre sorte d’atome.
Le modèle de Thompson (1897)
Il découvre que l’atome contient des particules plus petites, chargées négativement.
Ces particules ont été appelées électrons. Dans le modèle de Thompson, les électrons
n’ont pas de position ni de trajectoire dé…nies : ils baignent dans une "soupe" chargée
positivement.
Le modèle de Rutherford (1911)
L’atome est constitué d’un noyau central très petit (un dix millième du diamètre
atomique) qui comprend la quasi-totalité de la masse de l’atome. Ce noyau, porteur
d’une charge électrique positive, est entouré d’une enveloppe négative formée d’électrons.
Le modèle de Bohr (1913)
Les électrons négatifs formant l’enveloppe sont répartis en couches concentriques plus
ou moins éloignées du noyau positif.
Le modèle de Lewis (1913)
Lewis proposa l’hypothèse suivante : les électrons de la couche externe son responsables des liaisons entre atomes, la liaison étant assurée par des paires d’électrons résultant
de la mise en commun d’électrons appartenant aux atomes liés. C’est une simpli…cation
du modèle de Bohr.
19
Le modèle de Kimball (1959)
L’atome est constitué d’un coeur positif comprenant le noyau atomique et les couches
électroniques internes. Autour du coeur, on trouve des lieux géométriques contenant 1 ou
2 électrons. Ces lieux sont appelés des orbitales. Les orbitales étant des zones de l’espace
chargées négativement, elles se repoussent mutuellement. Le modèle de Kimball peut être
considéré comme une représentation spatiale de celui de Lewis.
1.6
Probabilité, Fonction d’onde, Equation de Schrödinger
1.6.1
Description probabiliste et densité de probabilité
En fait, toute la physique est une description probabiliste : un résultat de mesure
est donné par un nombre et son incertitude, et on peut même dire que l’on peut souvent
donner une loi de probabilité de trouver telle valeur de la mesure (on fait plusieurs fois
la même expérience et on dresse un histogramme).
On prendra l’exemple de la mesure de position d’une particule. En général, on envoie la
particule sur un détecteur (par exemple si c’est un photon, une plaque photo), et on répète
plein de fois l’expérience. La densité d’impacts sur la plaque photo est proportionnelle à
la densité de probabilité p(x) de trouver le photon au point x.
Pour …xer les idées, on rappelle la dé…nition de p(x). La probabilité P (dx) de trouver
la particule dans un petit volume dx est P (dx) = p(x)dx. Cela n’est pas limité à la
mesure de la position, mais peut-être étendu à la mesure de toute variable continue, par
exemple la vitesse (P (dv) = p(v)dv), ou une seule coordonnée x (P (dx) = p(x)dx).
On peut aussi avoir des probabilités discrètes (le résultat de mesure est une parmi N
possibilités). Si la mécanique classique était vraie, on pourrait écrire alors l’évolution de
ces densités de probabilités au cours du temps (en supposant qu’on les connaît au temps
t = 0 et en résolvant les équations de Newton voir 1.1). Il se trouve que cette méthode
20
ne donne pas les bons résultats dès qu’on arrive dans le domaine microscopique.
1.6.2
Fonction d’onde
Après quelques tâtonnements, les physiciens sont arrivés à la conclusion que pour
bien décrire la physique d’une particule, il fallait introduire une nouvelle fonction, appelée
fonction d’onde, notée en général
(x) dont les valeurs sont complexes, elle contient toute
l’information du système et qui a la propriété que j
(x) j2 = p(x) est une densité de
probabilité. En clair, on complète la description par p(x) en ajoutant une phase
p
p(x) exp (i' (x)).
1.6.3
(x) =
Equation de Schrödinger
Equation de Schrödinger dépendant du temps
Cette équation décrit comment la fonction d’onde se transforme au cours du temps.
Pour l’instant elle va nous paraître compliquée, mais sa forme se rationalisera plus bas à
propos de l’hamiltonien. On a donc une fonction
On dé…nit donc une fonction
(x) pour chaque valeur du temps t.
(t; x). Toute particule, ou plus généralement tout système
quantique, est complètement dé…ni à l’instant t par une fonction d’onde, appartenant à
l’espace L2 des fonctions de carré sommable muni du produit scalaire
h j
i=
Z
(t; x)
(t; x) dx.
(1.4)
Attention, cette fonction n’est en aucun cas reliée à une densité de probabilité de mesure
(t; x) j2 dt (noter l’élément di¤érentiel dt)
d’un temps ou quelque chose comme ça j
n’a aucune signi…cation physique ! t est ici un paramètre et non un résultat de mesure.
L’équation est écrite dans 1.
Discussion
D’où vient l’équation de Schrödinger ? Cette équation est postulée (tout commme
d’ailleurs l’équation de Newton). Sa validité est prouvée par les conséquences que l’on
21
peut en tirer. L’équation de Schrödinger est une équation du premier ordre par rapport
au temps. La connaissance de
(t = 0; x) su¢ t pour déterminer l’évolution de
(t; x).
On peut faire une constatation très importante en regardant l’équation de Schrödinger,
c’est qu’elle est linéaire., i.e. si
3
1
et
(t; x) =
2
en sont des solutions, alors 8 ;
1
(t; x) +
2
2C
(t; x) ,
est aussi solution de l’équation de Schrödinger. Cela est connu en physique sous le nom
de Principe de superposition. Cette constatation anodine est à la base de méthodes puissantes de résolution de l’équation. Ceci permet d’essayer d’écrire la solution générale sous
la forme d’une combinaison linéaire de solutions ayant certaines propriétés qui simpli…ent l’équation. On applique la méthode de la séparation des variables. En particulier,
on peut éliminer le temps de l’équation, et obtenir l’équation stationnaire de Schrödinger
indépendante du temps.
Equation de Schrödinger stationnaire
On suppose (comme c’est souvent le cas) que l’énergie potentielle est indépendante
du temps. On a donc, en cherchant les solutions sous la forme
injectant dans l’équation 1 et en divisant par
i
f (t)
1
=
f (t)
~
2m
(t; x) = f (t)
(x), en
on trouve :
+ V (x)
:
(1.5)
Comme le membre de gauche ne dépend que du temps et que celui de droite ne dépend
que de la position, ces deux membres sont nécessairement constants, ce qui donne deux
équations di¤érentielles ordinaires
i
~
2m
f (t)
= c,
f (t)
+V
22
= c:
On doit appliquer une condition qui vient de la physique. Nécessairement, tant que la
particule existe, on doit pouvoir la trouver quelque part dans l’espace, ce qui fait que
l’on a, quelque soit t :
Z
dx j
2
2
(t; x) j =j f (t) j
Z
j
(x) j2 dx = 1;
ce qui impose que j f (t) j = constante . On peut choisir cette constante égale à 1 (en la
faisant rentrer dans, et donc f (t) = exp (i' (t)). En reportant dans l’équation précédente,
on doit donc avoir ' = constante. On note cette constante
exp ( i$t) où
$
2
$, ce qui fait que f (t) =
est la fréquence, et on trouve :
$ =
~
2m
+ V (x)
.
D’après la relation de Planck E = ~ 2$ , on voit que le membre de gauche de cette équation
fait intervenir l’énergie de la particule, et l’on obtient …nalement l’équation de Schrödinger
indépendante du temps :
h
2m
+ V (x)
(1.6)
=E :
Il se trouve que, dans beaucoup de cas, cette équation n’a de solution physiquement
acceptable que pour un ensemble discret de valeurs de E. Toutes les valeurs de E ne sont
donc pas nécessairement autorisées : c’est la quanti…cation de l’énergie.
1.7
Notations de Dirac
L’état d’une particule est dé…ni par la donnée de sa fonction d’onde
(x) ou
2 L2
Ket : On dé…nit, par isomorphisme, l’espace vectoriel des états E tel qu’à toute fonction
2 L2 correspond un vecteur j i 2 E, on appelle ce vecteur ket. Les combinaisons
linéaires de kets sont aussi des kets. On note :
23
j
1
1i
+
2
j
2i
=j
1
1
+
2 i,
2
la combinaison linéaire de deux kets.
Bra : Un bra est une fonction linéaire de l’espace E à valeurs dans C, ce qu’on appelle
aussi une forme linéaire. On la note h j. Pour l’instant l’image d’un ket j i par le bra h
j est notée h
j (j i) . La linéarité signi…e que :
h j(
1
j
1i
+
2
j
2 i)
1h
=
j (j
1 i)
+
2h
j (j
On peut bien sûr faire des combinaisons linéaires de bras de type
2 i).
1h
1
j +
2h
2
j,
mais il n’y a pas de notation spéciale. Ces combinaisons linéaires sont comme d’habitude
dé…nies par :
(
pour tout ket j
1h 1
j+
2h 2
j) ( ) =
1h 1
j( )+
2h 2
j ( ),
i. L’ensemble des formes linéaires (des bras) sur l’espace E est appelé
l’espace dual de E et est noté E . Quand E est de dimension …nie, E est de même
dimension, et on peut donc trouver un isomorphisme entre ces deux espaces. Ce n’est
pas nécessairement le cas en dimension in…nie et ona besoin de la continuité pour cet
isomorphisme.
Produit scalaire, norme
Le produit scalaire (hermitien) de 2 kets j i et j 'i est noté : h j 'i. Il est hermitien,
linéaire sur le deuxième vecteur et antilinéaire sur le premier, et dé…ni positif
h j 'i = h' j i,
h j
1 '1
+
2 '2 i
=
1h
24
j '1 i +
2h
j '2 i,
h
1
1
+
2
2
j 'i =
1h
h j i
1
j 'i +
2h
2
j 'i,
0,
h j i = 0 ,j i.
On dé…nit la norme de j i comme
k
1.8
k=
p
h j i.
Ondes de De Broglie et dualité onde-corpuscule
L’idée est le concrétiser l’onde de Schrödinger par une sorte d’onde pilote.
En physique, la dualité onde-corpuscule ou dualité onde-particule est un principe
selon lequel tous les objets de l’univers microscopique présentent simultanément des propriétés d’ondes et de particules, (tout comme les photons de la lumière ont les deux
comportements ondulatoire et corpusculaire). Cette dualité tente de rendre compte de
l’inadéquation des concepts conventionnels de « particules » ou d’« ondes » , pris isolément, à décrire le comportement des objets quantiques. L’idée de la dualité prend ses
racines dans un débat remontant aussi loin que le 17e siècle, quand s’a¤rontaient les théories concurrentes de Christiann Huygens qui considérait que la lumière était composée
d’ondes et celle de Isaac Newton qui considérait la lumière comme un ‡ot de particules.
La suite des travaux à A. Einstein, L. De Broglie et bien d’autres, les théories scienti…ques modernes accordent à tous les objets une nature d’onde et de particule, bien que
ce phénomène ne soit perceptible qu’à des échelles microscopiques.
Onde ou particule, c’est l’absence de représentation plus adéquate de la réalité des
phénomènes qui nous oblige à adopter, selon le cas, un des deux modèles alors qu’ils
25
semblent antinomiques
En 1925 De Broglie postula son principe de la dualité onde-copuscule qui a¢ rme
que toute matière (et pas seulement la lumière) a une nature ondulatoire. Il associa
la quantité de mouvement p d’une particule à une longueur d’onde appelée longueur
h
d’onde de De Broglie = , où p peut être dé…nit comme le produit de la masse par la
p
h
.
vitesse p =
, donc la longueure d’onde est =
Exemple : Quelle est la longueur d’onde d’un électron qui se déplace à une vitesse
de 100
m
s
?
6; 626 10 34
= 7:27 [ m].
9:109 10 31 :100
Il est très di¢ cile d’imaginer un objet qui soit à la fois une onde et un corpuscule, tel
Réponse : Selon l’équation ci-dessus,
=
h
=
que nous dé…nissons ces deux entités en physique classique, à cause de leurs propriétés
opposées :
Une particule peut être localisée précisément (je vois cette bille, elle est ici) alors
qu’une onde est délocalisée (un son peut être entendu dans toute la pièce).
Il n’est possible ni de créer ni de détruire une particule en mécanique classique !( cette
assertation est justement fausse en mécanique quantique) alors qu’il sufet de pincer une
corde de guitare pour créer une onde.
Les particules sont clairement dissociées : si un atome est à un endroit, aucun autre
atome ne pourra y être au même moment. Deux ondes sont au contraire superposables :
les interférences.
Mais plus généralement, comment imaginer un système S qui se manifeste parfois
comme A, parfois comme B alors que A et B sont deux choses di¤érentes ? On peut voir
S comme n’étant ni A ni B mais comme quelque chose de plus général, que l’on ne peut
(sait ?) toutefois visualiser dans sa totalité.
Pour donner un exemple, on pourrait s’imaginer vivre dans un monde bidimensionnel
et essayer de décrire un cylindre : suivant une certaine projection, c’est un cercle, suivant
une autre, c’est un rectangle, alors qu’un cylindre n’est ni l’un ni l’autre !
26
1.9
Le principe d’incertitude de Heisenberg
Le principe d’incertitude de Heisenberg a¢ rme que, pour une particule massive donnée, on ne peut pas connaître simultanément sa position et sa vitesse (ou sa quantité
de mouvement). Soit on peut connaître précisément sa position, mais avec une grande
incertitude sur sa vitesse, soit on peut connaître précisément sa vitesse, amis avec une
grande incertitude sur sa position. Ce principe est assez contre-intuitif du point de vue
de la mécanique classique.
Il faut souligner que ce principe ne porte pas sur l’imprécision de mesure, mais bien
sur l’impossibilité intrinsèque de déterminer à la fois la position et la vitesse, quelle que
soit la précision de la mesure. A ce propos, il est très instructif de lire dans [12] le dialogue
qui s’est tenue entre une étudiante de philosophie Kantienne et Heisenberg lui même.
En notant l’indétermination sur la position x par
quantité de mouvement p par
x et l’indétermination sur la
p, on a la formule suivante :
x p
~
.
2
Exemple : Quelle est l’incertitude sur la quantité de mouvement d’une particule dont
la position peut être déterminée avec une précision in…nie ?
Réponse : Par la formule précédente, comme
1.10
x = 0 alors
p = 1.
Les axiomes de base de la mécanique quantique
La mécanique quantique est basée sur quelques axiomes trouvés grâce à l’ingéniosité
des savants. Un axiome est un postulat qui constitue une théorie, mais qui ne découle
d’aucune formule précédente et qui ne peut être prouvé formellement.
27
Premier axiome : fonctions d’onde et distributions de probabilité
En mécanique quantique, à cause de ses propriétés ondulatoires, une particule ne
peut pas être située de façon exacte à un moment donné. On peut par contre donner la
probabilité que la particule se trouve à un endroit, ce qui est surtout important de retenir
ici, c’est qu’en mécanique classique une particule peut être dé…nie par sa position et sa
vitesse exacte à un moment donné, alors que pour une particule quantique on ne peut
que donner des distributions probabilités.
Mathématiquement, on exprime cela ainsi :
P (x; dV ) =j (x) j2 dV =
(x)
(x) dV ,
où P (x; dV ) est la probabilité d’être dans le volume dV à la position x et
fonction d’onde. k
(x) est la
(x) k2 s’appelle la densité de probalité (parfois simplement probabi-
lité). Une fonction d’onde d’un système est, en mécanique quantique, une représentation
de l’état quantique du système, i.e. de tous les aspects qui décrivent ce système. Pour un
électron, le carré de la fonction d’onde est appelé densité électronique. Elle correspond
au nombre d’électrons par unité de volume et est notée P (x) avec P (x) =j (x) j2 . Si V
représente tout le volume dans lequel la particule peut évoluer, alors la probabilité que
la particule soit dans V est 1 :
Z
2
(x)dV = 1.
Exemple : une particule quantique est con…née dans une boîte a un dimension linéaire
de longueur L entourée par des murs de potentiel in…n. L’état fondamental de ce système
est décrit par la fonction d’onde suivante :
2 2
~
En =
2m
n2
L2
,
n (x)
28
=
r
2
x
sin(n ).
L
L
Quelle est la (densité de) probabilité de trouver la particule à une position x donnée ? A
quelle position se trouve la probabilité maximale (quelle est l’espérance) ? Quelle est la
probabilité totale de trouver la particule dans la boîte ?
2
L
Réponse : j (x) j2 = sin2 ( Lx ). La probabilité est maximale lorsque x = . La
L
2
probabilité totale vaut 1.
Deuxieme axiome : observables et opérateurs
Les propriétés d’un système quantique sont décrites par di¤érentes informations physiques que l’on obtient par des mesures. On les appelle des observables, notées A. Pour
décrire ces observables, on utilise des outils mathématiques appelés opérateurs, on note
A^ = OA l’opérateur servant à décrire l’observable A. Ces opérateurs sont des sorte de
fonctions agissant sur la fonction d’onde du système.
OA = A .
Voici un récapitulatif de la correspondance entre les concepts classiques et quantiques
Observable Formule classique Opérateur quantique
Position
Quantité de mouvement
x
!
p = m!
!
p^ =
x^
!
{~ r
P2
m 2
~2 2
=
r
Energie cinétique Ec =
E^c =
2
2m
2m
On remarque que l’opérateur de l’énergie cinétique se déduit de la formule classique
de l’énergie cinétique et de l’opérateur de la quantité de mouvement.
Exemple quelle est la quantité de mouvement d’une particule libre qui est décrite
par la fonction suivante :
Réponse :
(x) = exp ( ikx) ?
d
= ~k .
~k car P^ = ~
dx
Troisieme axiome : espérances et incertitudes
En physique quantique, au lieu de donner la position d’une particule par une seule
valeur précise, on donne une distribution de probabilité de la position. La valeur la plus
29
probable d’une distribution de probabilité est la moyenne de la distribution, ce que nous
appelons l’espérance. Par exemple, l’espérance de la position d’une particule, notée hxi
est :
hxi =
Z
x j j2 (x)dV =
V
X
xi P (x = xi ),
i
on a fait une approximation où l’on rend discret l’espace continu en le divisant en une
multitude de petits cubes in…nitésimaux. P (xi ) représente la probabilité d’être dans le
petit cube indicé i, tout comme
2
(x)dV représente la probabilité d’être dans le volume
dV dans le cas continu.
Nous prenons toutes les valeurs possibles de x nous en faisans une moyenne pondérée
par la probabilité de chacune de ces valeurs, qui nous est donnée par le carré de la fonction
d’onde.
De la même manière que pour la position d’une particule, on peut calculer une propriété A d’un système quantique comme l’espérance de la distribution de probabilité
donnée par le carré de la fonction d’onde :
hAi =
Z
OA dV .
V
Si l’on prend de nombreuses mesures de la propriété A, la largeur de la distribution de
probabilité qui en résulte détermine si les valeurs que l’on a obtenus sont proches ou
alors s’écartent beaucoup de l’espérance de A. Cette incertitude
déviation standard de la distribution de probabilité
v
u N
uX
A=t
P (A
i
i
i=1
30
hAi
i)2 =
N
X
i=1
Pi .
A est donnée par la
Quatrième axiome, l’hamiltonien et l’équation de Schrödinger
Nous avons déjà remarqué que la fonction d’onde d’un système est donnée par l’équation de Schrödinger 1 qui est une EDP complexe. Cette équation admet aussi l’écriture
opératorielle :
b (t; x),
i~@t (t; x) = H
(1.7)
b est l’hamiltonien qui est un opérateur bien connu en mathématique. C’est l’opéraoù H
teur quantique pour l’énergie totale du système :
b= E
bc + Vb =
H
~2
2m
où Vb est l’opérateur de multiplication par V , i.e. Vb
+ Vb ,
(x) = V (x)
(1.8)
(x). Cet opérateur
est donné ici dans la représentation en x.
Pour des états stationnaires, i.e. indépendants du temps, l’équation de Schrödinger
se simpli…e en l’équation de Schrödinger indépendante du temps :
^ (x) ,
E (x) = H
où E est l’énergie totale du système. La résolution d’une telle équation est en général
très complexe.
La plus faible de ces valeurs propres (En ) est l’énergie de l’état fondamental du système.
1.11
Résumé des relations entre mécanique classique
et mécanique quantique
Le changement radical entre la mécanique quantique et la mécanique classique est
essentiellement qu’en mécanique classique une particule est un objet ponctuel décrit par
31
un point (x; p) dans l’espace des phases, alors que en mécanique quantique, une particule
est un objet étendu, décrit par une fonction d’onde
(t; x). Une conséquence est la
possibilité d’interférences. Le rôle de la mécanique est de donner les lois qui gouvernent
l’évolution de ces objets. Ce sont les équations de Hamilton (ou Newton) dans le cas
classique et de Schrödinger dans le cas quantique.
La théorie quantique est valable pour des constituants élémentaires ou pour une assemblée de quelques constituants (atomes molécules) tant qu’il sont parfaitement isolés de
leur environnement. Ici le mot isolé signi…e précisément que le système étudié ne modi…e
pas son environnement au sens où il ne change pas l’état quantique de l’environnement
de façon signicative. On ne peux pas parler de la fonction d’onde d’une balle ou même
d’une poussière qui sont des objets non isolés. En principe une théorie complète devrait
pouvoir décrire toutes les échelles de la nature. A l’heure actuelle on ne sait pas rendre
compatible de façon totalement satisfaisante la théorie quantique avec l’aspect classique
de la nature à l’échelle macroscopique. Cela est discuté depuis longtemps.
Si le système étudié n’est pas isolé et in‡uence un système extérieur, il est nécessaire
d’inclure ce système extérieur dans la description quantique. Sinon, on peut se contenter
d’une description classique du système extérieur.
Le tableau suivant résume les principales di¤érences entre la mécanique classique et
la mécanique quantique.
Classique
Quantique
~
2
(t; x), p (t; x)
4x4p
Position et quantité de mouvement
sont toujours exactement déterminés
Spectres d’énergie continus
Energie quanti…ée
Ec (T = 0) = 0
Ec (T = 0) > 0
Lois de Newton
d2 x
f = ma = m 2
dt
Equation de Schrödinge
H
32
(t; x) = i~@t (t; x)
1.12
Les grands hommes de la mécanique quantique
Pour …nir, on rend hommage aux savants qui ont contribué à la mécanique quantique.
Albert Einstein Albert Einstein (né le 14 mars 1879 à Ulm, Wurtemberg, et mort
le 18 avril 1955 à Princeton, New Jersey) est un physicien théoricien qui fut successivement allemand, puis apatride (1896), suisse (1901), et en…n sous la double nationalité
helvético-américaine (1940).
Il publie sa théorie de la relativité restreinte en 1905, et une théorie de la gravitation
dite relativité générale en 1915.Il contribue largement au développement de la mécanique
quantique et de la cosmologie, et reçoit le prix Nobel de physique de 1921 pour son
explication de l’e¤et photoélectrique. Son travail est notamment connu pour l’équation
E = mc2 , qui établit une équivalence entre la matière et l’énergie d’un système.
Werner Heisenberg Werner Karl Heisenberg (5 décembre 1901 à Wurtzbourg,
Allemagne - 1er février 1976 à Munich) était un physicien allemand. Il fut l’un des fondateurs de la mécanique quantique. Il est lauréat du prix Nobel de physique de 1932
«pour la création de la mécanique quantique, dont l’application a mené, entre autres, à
la découverte des variétés allotropiques de l’hydrogène » .
Max Planck Max Planck (né Max Karl Ernst Ludwig Planck le 23 avril 1858 à Kiel,
Allemagne - mort le 4 octobre 1947 à Gttingen, Allemagne) est un physicien allemand.
Il est lauréat du prix Nobel de physique de 1918 pour ses travaux en théorie des quanta.
Il a reçu la médaille Lorentz en 1927 et le prix Goethe en 1945. C’est l’un des fondateurs
de la mécanique quantique.
Niels Bohr Niels Henrik David Bohr (7 octobre 1885 à Copenhague, Danemark
- 18 novembre 1962 à Copenhague) est un physicien danois. Il est surtout connu pour
son apport à l’édi…cation de la mécanique quantique, pour lequel il a reçu de nombreux
honneurs. Il est notamment lauréat du prix Nobel de physique de 1922.
33
Max Born Max Born (11 décembre 1882 à Breslau, Empire allemand - 5 janvier
1970) est un physicien allemand, puis britannique. Il est lauréat de la moitié du prix
Nobel de physique de 1954 pour ses travaux sur la théorie des quanta.
Erwin Schrödinger Erwin Rudolf Josef Alexander Schrödinger (12 août 1887 à
Vienne –4 janvier 1961) est un physicien et théoricien scienti…que autrichien.
En imaginant l’équation d’évolution de la fonction d’onde associée à l’état d’une particule, il a permis le développement du formalisme théorique de la mécanique quantique.
Cette équation d’onde qui tient compte à la fois de la quanti…cation et de l’énergie non
relativiste a été appelée par la suite équation de Schrödinger (pour laquelle il a reçu, en
commun avec Paul Dirac, le prix Nobel de physique de 1933).
Il est également connu pour avoir soumis l’étonnante expérience de pensée, nommée
plus tard du Chat de Schrödinger, à la suite d’une importante correspondance avec Albert
Einstein en 1935.
John von Neumann John von Neumann, né János Neumann, à Budapest, en
Autriche-Hongrie le 28 décembre 1903 et mort à Washington, D.C. le 8 février 1957, est
un mathématicien et physicien américano-hongrois. Il a apporté d’importantes contributions tant en mécanique quantique, qu’en analyse fonctionnelle, en théorie des ensembles,
en informatique, en sciences économiques ainsi que dans beaucoup d’autres domaines des
mathématiques et de la physique. Il a de plus participé aux programmes militaires américains.
Richard Feynman Richard Phillips Feynman (11 mai 1918 – 15 février 1988)
est l’un des physiciens les plus in‡uents de la seconde moitié du 20e siècle, en raison
notamment de ses travaux sur l’électrodynamique quantique relativiste, les quarks et
l’hélium super‡uide.
Il reformula entièrement la mécanique quantique à l’aide de son intégrale de chemin qui généralise le principe de moindre action de la mécanique classique et inventa les
34
diagrammes qui portent son nom et qui sont désormais largement utilisés en théorie quantique des champs (dont l’électrodynamique quantique fait partie), et lui sont colauréats
du prix Nobel de physique de 1965 pour leurs travaux en électrodynamique quantique.
Louis De Broglie Louis Victor De Broglie, prince, puis duc De Broglie (15 août
1892 à Dieppe, France - 19 mars 1987 à Louveciennes, France) est un mathématicien et
physicien français. À seulement 37 ans, il devient lauréat du prix Nobel de physique de
1929 « pour sa découverte de la nature ondulatoire des électrons » .
Paul Dirac Paul Adrien Maurice Dirac (8 août 1902 à Bristol, Angleterre - 20
octobre 1984 à Tallahassee, Floride, Etats-Unis) est un physicien et mathématicien britannique. Il est l’un des « pères » de la mécanique quantique et a prévu l’existence de
l’antimatière. Il est colauréat avec Erwin Schrödinger du prix Nobel de physique de 1933
« pour la découverte de formes nouvelles et utiles de la théorie atomique » .
35
Chapitre 2
Probabilité non commutative
Pour bien saisir ce concept, il faut passer en revue le cas classique.
2.1
Probabilité classique
Il est instructif de noter que l’exposition rigoureuse de la notion de probabilités n’a
vu le jour que vers 1930 avec Kolmogorov, alors que la relativité restreinte et générale
ont étés découvertes au plus tard en 1916 et la mécanique quantique vers 1925. Du point
de vue intuitif, on utilise l’outil probabiliste et ceci de manière très correcte depuis très
longtemps. Le langage de la théorie des probabilités classiques est celui de la théorie
de la mesure et intégration. Notons au passage qu’il est tout à fait possible que ces
probabilités classiques puissent avoir un autre langage que celui de la mesure. Une théorie
satisfaisante n’a été mise au point que vers la …n du 19e siècle avec H. Lebesgue ; celuici devait en e¤et attendre l’expression correcte du concept de borne supérieure. Etant
donné une expérience aléatoire, on lui associe l’ensemble de toutes les possibilités, ou
espace échantillon, ou univers ou en…n espace fondamental, noté
. Un événement sera
alors associé à un sous-ensemble de . (il y a des problèmes mathématiques complexes qui
font que si
est non dénombrable (i.e. il n’existe aucune bijection entre
tout sous ensemble de
et N ), alors
ne sera pas automatiquement un événement). Cette association
36
est en fait bien connue en Logique Mathématique et Théorie des ensembles initiée par G.
Boole au 19e siècle.
2.1.1
Espace fondamental
On considère un ensemble abstrait quelconque
, qui modélise le caractère aléatoire
d’un certain phénomène et portera dans la suite le nom d’ensemble fondamental, ou
d’espace des chances. On note P ( ) l’ensemble des parties de . Rappelons que si Card
= n, alors Card P ( ) = 2n .
Dé…nition 2.1.1 Une tribu ou -algèbre F sur
nant
est un sous-ensemble de P ( ) conte-
et véri…ant les propriétés suivantes :
1) 8A 2 F ) Ac 2 F(stabilité par passage au complémentaire),
2) 8Ai 2 F ) \ Ai 2 F(stabilité par intersection dénombrable).
i2N
Il faut comprendre une tribu comme la quantité d’information associée à une certaine
expérience aléatoire. Remarquons qu’une tribu contient forcément ;, et reste stable par
réunion dénombrable. Les éléments de
sont appelés événements élémentaires et les
éléments de F événements. Quand F est une tribu sur , on dit que ( ; F) est un espace
mesurable.
Un sous-ensemble S
F, tel que S soit aussi une -algèbre est appelé sous- -algèbre
de F. Soit E un espace topologique, on appelle -algèbre de Borel de E notée B (E),
la -algèbre engendrée par les ouverts de E, i.e. la plus petite -algèbre contenant les
ouverts de E.
Dé…nition 2.1.2 Soit ( ; F) un espace mesurable. Une probabilité sur ( ; F) (ou une
mesure de probabilité) est une application P de F dans [0; 1] telle que
1) P ( ) = 1,
P
2) Si A1
An ;
sont des parties de F deux à deux disjointes, alors P
P (An ).
n2N
37
[ An
n2N
=
La deuxième propriété porte le nom de -additivité. On utilise souvent l’écriture avec
R
R
les fonctions indicatrices : P (A) = A dP = 1A dP .
Si P (A) = 1, on dit que A est presque certain (
est alors l’événement certain). Un
ensemble A 2 F est dit négligeable pour P si P (A) = 0, par exemple les singletons fxg
sont négligeables dans [0; 1] pour la mesure de Lebesgue (on dit alors que cette dernière
ne charge pas les points). L’ensemble
est parfois appelé espace des échantillons ou
univers. Le triplet ( ; F; P ) est appelé espace de probabilité qu’on …xera pour toute la
suite.
Les événements A et B sont indépendants si et seulement si P (A \ B) = P (A)P (B),
ce qui s’écrit encore, dès que P (B) > 0,
P (AjB) = P (A).
Si la suite (An )n2N est croissante, i.e. An
P
[ An
n2N
An+1 , alors
= lim P (An ) .
n !1
Si la suite (An )n2N est décroissante, i.e. An+1
P
\ An
n2N
An , alors
= lim P (An ) .
n !1
Dé…nition 2.1.3 Soient ( ; F), (E; ) deux espaces mesurables et X une fonction de
dans E. On dit que X est une variable aléatoire (v. a.) sur
sur ( ; F)) lorsque pour tout A 2 B (E) on a X
1
(ou plus précisément
(A) 2 F. Autrement dit, les images
réciproques des boréliens doivent être des évènements de F.
Les v.a. sont aussi appelées (dans un autre contexte) fonctions F-mesurables. Lorsque
F = P ( ) toute fonction X :
! E est une v. a. . L’exemple fondamental de variable
aléatoire est la8fonction indicatrice d’un ensemble A 2 F :
< 1 si ! 2 A,
1A : ! 7 !
: 0 sinon.
38
Dé…nition 2.1.4 La tribu engendrée par une v. a. X dé…nie sur ( ; F) est l’ensemble
(X) = fX
1
(A) ; A 2 B (E)g.
Dé…nition 2.1.5 Soit X une v.a., la loi de X est la probabilité PX sur (E; B (E)) dé…nie
comme mesure-image de P par X : pour tout A 2 B (E)
PX (A) = P (X 2 A) = P (f! : X (!) 2 Ag) .
On appelle la fonction de répartition de X les quantités FX (x) = P (X
x). La
fonction FX est continue à droite et limitée à gauche (càdlàg), croissante, tend vers 0 en
1 et vers 1 en +1.
Soit fX une fonction positive, La densité fX d’une variable aléatoire X est la dérivée de
la fonction de répartition FX quand cette dérivée existe. On peut alors écrire P (X 2 A)
R
= A fX dx.
2.1.2
Indépendance, espérance conditionnelle
Dé…nition 2.1.6 Soit X une v.a. tq
l’espérance de X par
E (X) =
R
Z
jX (!)j dP =
X (!) dP =
Z
R
R
jxj dPX < +1. On dé…nit alors
xdPX .
R
Intuitivement, c’est le centre de gravité de la loi PX . Le deuxième moment représente
le moment d’inertie par rapport à un axe qui passe par l’espérance.
Il existe des variables aléatoires qui n’ont pas d’espérance, i.e. pour lesquelles l’intéR
grale X (!) dP n’a pas de sens. Par exemple la variable ayant pour densité fX (x) = 0
si jxj < 1 et fX (x) = 1= (2x2 ) si jxj
Z
R
1 véri…e
jxj dPX (x) =
Z
1
+1
dx
= +1,
x
et donc E (X) n’a pas de sens. On dit que X est intégrable quand on peut dé…nir son
espérance. On noteL1 ( ; F; P ) (ou L1 ( ) quand il n’y a pas d’ambiguïté) l’ensemble
39
des v.a. intégrables. De la même façon, on dé…nit
p
L ( ; F; P ) =
pour tout p
X v.a. =
Z
R
jxjp dPX (x) < +1 ,
1. L’espace L2 ( ) des v.a. de carré intégrable joue un rôle essentiel : c’est
un espace de Hilbert, muni du produit scalaire < X; Y >= E(XY ).
Théorème 2.1.1 Si
: R ! R est une fonction borélienne telle que
grable, on a
E [ (X)] =
Z
(X) dP =
Dans cette formule, on a vu la loi de
Z
(X) soit inté-
(x)PX (dx) .
R
(X) comme l’image par
de la loi de PX . On
peut aussi utiliser la formule directe
E [ (X)] =
Z
xP
(X)
(dx) .
R
Dé…nition 2.1.7 La fonction caractéristique ou transformée de Fourier d’une v.a. X,
est la fonction
'X (t) = E [exp (itX)] =
Z
exp (itx) PX (dx) .
R
On peut étudier, en général, une mesure
F (y) = ~ (y) = (1=2 )
à l’aide de sa transformée de Fourier
Z
exp ( iyx) (dx) .
(2.1)
La notion suivante jouera un rôle fondamental dans la suite :
Théorème 2.1.2 Soit G une sous-tribu de Fet X une v.a. intégrable. Il existe une unique
v.a. Z G-mesurable telle que
E (X 1A ) = E (Z 1A ) ,
pour tout A 2 G.
40
On appelle Z l’ espérance conditionnelle de X sachant G et on note Z = E (XjG),
elle est caractérisée par
E(XG) = E(ZG), 8G v.a.bornée G-mesurable:
Quand X 2 L2 ( ), il existe une importante interprétation hilbertienne de l’espérance
conditionnelle : E (XjG) est la projection de X sur l’espace des v.a. G-mesurables de carré
intégrable. Quand G = (Y ) pour une certaine v.a. Y , on note parfois E (XjG) = E(XjY )
(espérance conditionnelle sachant Y ).
Remarque 2.1.1 L’espérance conditionnelle possède les propriétés suivantes :
-E [E (XjG)] = E(X),
- Si X est G -mesurable, E (XjG) = X,
-Si X est indépendante de G, E (XjG) = E(X),
-Si G est la tribu triviale, E (XjG) = E (X),
-Si G et H sont deux tribus telles que H
G, alors E (XjH) = E [E (XjG) jH] =
E [E (XjH) jG].
2.1.3
processus stochastiques
Nous aurons besoin dans ce mémoire de deux processus fondamentaux : le processus
de Poisson, qui est une chaîne de markov (voir la prochaine section), et le mouvement
Bownien qui est un processus de Markov.
Dé…nition 2.1.8 Soit T un ensemble d’indices quelconque, dénombrable ou non.Un processus stochastique est une famille de variables aléatoires X = (Xt )t2T dé…nies sur un
même espace de probabilité ( ; F; P ) à valeurs dans un espace mesurable (E; ) et indicées par un paramètre t appartenant à l’ensemble T .
Lorsque T = N ou Z, X est egalement appelé suite aléatoire (et dans ce cas t et
plus souvent noté n ou k) ou processus en temps discret, lorsque T = [0; ] ou R+ ,
41
X est egalement appelé fonction aléatoire ou processus en temps continu. Dans le cas
multidimensionnel T = Nd ou Rd , X est également appelé champ aléatoire. Lorsque
T = f1;
ng est …ni alors X = (X1
Xn ) est également appelé vecteur aléatoire.
Remarquons qu’il est possible de représenter un processus stochastique comme une
application X : T
! R de deux variables, mesurable par rapport à la seconde variable,
avec X (t; !) = Xt (!), t 2 T , ! 2
. Pour chaque t dans T , Xt est donc une variable
aléatoire,i.e une application mesurable de ( ; F) dans (E; ). Cette application décrit
les etats possibles du processus pour chaque valeur t du paramètre.
Dé…nition 2.1.9 Soit ! 2
, L’application X (:; !) : T ! E qui à t 2 T associé
Xt (!)dans R est appelée une trajectoire ou realisation de Xt .
Un processus "càdlàg" est un processus stochastique tel que pour tout !, les trajectoires t 7! Xt (!) sont continues a droites et pourvues de limites a gauche.
Lorsque X est a trajectoires continues, on peut considérer que X est une v.a. a valeurs
dans l’espace C([0; 1[; R) des fonctions continues de [0; 1[ a valeurs dans R.
Dé…nition 2.1.10 Un processus X est dit mesurable si l’application t 7! Xt (!) est
mesurable.
Un processus X est dit continu si pour tout ! 2
, t 7! Xt (!) est continue (i.e. les
trajectoires sont continues).
Un processus est dit stationnaire si (Xt+s )t
0
= (Xt )t
0
pour tout s 2 R+ . En parti-
culier, tous les Xt ont même loi.
Dé…nition 2.1.11 On considère un processus stochastique en temps continue (Xt )t 0 ,
les accroissements de ce processus sont les variables Xt
Xs pour tout 0
s
t < +1.
Ce processus est dit à accroissements indépendants lorsque pour tout n et tout 0
t0
t1
tn < +1, les variables Xt1
Xt0 ; Xt2
Xt1 ;
Xtn
Xtn
1
sont
mutuellement indépendantes. Ce processus est dit à accroissements stationnaires lorsque
42
pour tout s et t
loi(Xt+h
0 , la loi de l’accroissement Xt+h
Xt ) = loi(Xh
Xt ne dépend pas de t, i.e.
X0 ).
Les processus càdlàg, à accroissements indépendants et stationnaires, et issus de 0 sont
appelés processus de Lévy. Le processus de Poisson et le mouvement brownien (M.B.)
sont des exemples de processus de Lévy.
2.1.4
Mouvement brownien
Commmençons d’abord par un peu d’histoire
Un peu d’histoire
Avant d’être un objet mathématique rigoureux, le mouvement brownien a été étudié
en Botanique, en Finance, et en Physique. Le botaniste Robert Brown observe en1828 le
mouvement irrégulier de particules de pollen en suspension dans l’eau. En 1877, Delsaux
explique les changements incessants de direction de trajectoire par les chocs entre les
particules de pollen et les molécules d’eau. Un mouvement de ce type est quali…é de
“mouvement au hasard”.
En1900, Bachelier, en vue d’étudier les cours de la Bourse met en évidence le caractère
“markovien” du mouvement Brownien : la position d’une particule à l’instant t + s dépend de sa position en t, et ne dépend pas de sa position avant t. Il convient d’insister sur
le caractère précurseur de Bachelier et le fait que la théorie du mouvement Brownien a été
développée pour la Bourse, avant de l’être pour la Physique. En 1905, Einstein détermine
la densité de transition du mouvement Brownien par l’intermédiaire de l’équation de la
chaleur et relie ainsi le mouvement Brownien et les équations aux dérivées partielles de
type parabolique. La même année, Smoluchowski décrit le mouvement Brownien comme
une limite de promenades aléatoires. La première étude mathématique rigoureuse est
faite par N. Wiener (1923) qui exhibe également une démonstration de l’existence du
Brownien. P. Lévy (1948) s’intéresse aux propriétés …nes des trajectoires du Brownien.
Depuis, le mouvement Brownien continue de passionner les probabilistes, aussi bien pour
43
l’étude de ses trajectoires que pour la théorie de l’intégration stochastique.
Le mouvement Brownien
Commençons par un rappel sur les lois normales dans R. Si m;
normale (ou gaussienne) de moyenne m et de variance
p 1
2
R dé…nie par la densité x 7 !
2
e
(x m)2
2 2
. Si
2
2 R on appelle loi
, et on note N (m;
2
), la loi sur
= 0, on prendra la masse de Dirac
m
en m. N (0; 1) est la loi normale standard.
Dé…nition 2.1.12 Le mouvement Brownien (ou processus de Wiener) standard réel est
le processus stochastique fBt gt
pour tout t
s
loi normale N (0; t
0, Bt
0
satisfaisant : 1- B0 = 0 , 2- Incréments indépendants :
Bs est indépendant de fBu gu s , 3- La loi de Bt
Bs est la
s). On peut considérer Bt comme une seule v.a. sur l’espace des
trajectoires R[0;1[ muni de tribu cylindrique G i.e. la plus petite tribu sur R[0;1[ qui rend
les projections mesurables.
Plus généralement, on appelle mouvement brownien réel tout processus B = (Bt )
véri…ant (1 ), (2 ) et (3 )’Bt
Bs est la loi normale N (m;
2
(t
s)) pour tout 0
s
t.
On peut montrer que le mouvement brownien (M. B. ) est continu a l’aide du résultat
suivant.
Théorème 2.1.3 (critère de Kolmogorov) SoitX = (Xt )t
0
un processus a valeurs dans
Rd , supposons qu’il existe des constantes a; b; c > 0 telles que
E j Xt
Xs ja
cjt
s j1+b
~ De plus les trajectoires de X
~ sont p.s. locaalors X admet un modi…cation continue X.
b
lement höldériennes d’ordre pour tout 2 0; , i.e. pour tout T > 0 il existe cT tel
a
~t X
~ s j cT j t s j pour tout 0 s; t T .
que j X
44
Ce théorème s’applique au mouvement brownien, comme Bt
E j Bt
Bs j2n =
2n!
jt
2n n!
Bs
N (0; t
s),
s jn
on peut donc appliquer le théorème : le mouvement brownien admet une modi…cation
qui est continue et ses trajectoires sont localement d’ordre 2.
Equation de la chaleur
Il en résulte que le M.B. est un processus markovien. Etudions sa fonction de transition. Elle est donnée par
p (t; x; y) = p
1
exp( (y
2 t
x)2 =2t);
(2.2)
C’est de façon heuristique, la probabilité pour que le brownien soit en y sachant que t
instants auparavant il se trouvait en x. Par stationnarité des accroissements du brownien,
c’est aussi la densité conditionnelle
P (Bt+s 2 dyjBs = x) =
(t; x; y) dy:
La densité de transition véri…e les équations forward et backward
@q
1 @2q
1 @2q
(t; x; y) =
(t;
x;
y)
=
(t; x; y) :
@t
2 @x2
2 @y 2
Si, pour une fonction mesurable bornée f , on considère la fonction
u(t; x) = E [f (Bt + x)] =
Z
f (x + y) g (t; y) dy =
Z
f (y) q (t; x; y) dy,
((3; 4))
on déduit de l’équation forward et du théorème de dérivation sous l’intégrale que u véri…e
l’équation aux dérivées partielles
45
1 @2u
@u
=
,
@t
2 @x2
u(0; x) = f (x).
(2.3)
Cette équation porte le nom d’équation de la chaleur (u représente l’évolution de la
température dans un corps homogène, avec conditions initiales données par f ). De plus,
en dérivant sous l’intégrale, on a
@2u
=
@x2
Z
R
h 00
i
00
f (x + y) g (t; y) dy = E f (Bt + x) :
On peut ainsi écrire
E [f (Bt + x)]
f (x) = u(t; x)
u(0; x) =
Z
t
0
1
@u
(s; x)ds =
@t
2
Z
t
0
@2u
(s; x)ds:
@x2
d’où
1
E [f (Bt + x)] = f (x) +
2
Z
0
t
h 00
i
E f (Bs + x) ds:
On peut également considérer des fonctions temps-espace : Soit f : R+
R ! R une
fonction de classe C 1 en temps et C 2 en espace et B un Brownien. Alors
E [f (t; Bt + x)] = f (0; x) +
Z
0
t
0
1 00
E f t (s; Bs + x) + fx (s; Bs + x) ds:
2
Pour la démonstration de cette égalité voir [4] page 32.
On dé…nit le générateur, voir 2.3.2, A du processus espace-temps (t; Bt ) comme l’opérateur agissant sur les fonctions de classe C 1 en temps et C 2 en espace :
1 2
Af (t; x) = @t f (t; x) + @xx
f (t; x).
2
46
2.1.5
Processus de Poisson
Nous avons donc vu que le mouvement brownien est essentiellement un processus
continu à accroissements indépendants et stationnaires avec var(Bt Bs ) = t s. L’hypothèse "continue" a son importance. Nous introduisons maintenant le processus de Poisson
(standard) (Nt )t
0
qui est le prototype des processus de saut. Ce processus sert à modé-
liser le nombre d’appels téléphoniques dans un standard dans un laps de temps donné ou
le nombre de désintégrations atomiques enregistrés dans un laps de temps donné etc. .
Dé…nition 2.1.13 Un processus ponctuel ou un processus de comptage est un processus
Nt dont les trajectoires t ! Nt (!) à valeurs dans N sont croissantes, continues à droite
nulle on 0 et dont les sauts sont de taille 1.
On associe à un processus de comptage ses temps de sauts successifs Tn = inf ft =Nt = ng
et les valeurs du processus entre deux sauts consécutifs Sn = Tn
Tn 1 . La loi du premier
temps de saut T1 est une loi exponentielle de paramètre . De même, pour tout s > 0, la
loi du premier événement après s, soit TNS +1
s, est une loi exponentielle de paramètre
. Le processus de Poisson consiste alors à sauter d’une unité à chaque temps Tn . Voici
une dé…nition plus formelle.
Dé…nition 2.1.14 Un processus de Poisson (Nt )t
tuel qui suit une loi de Poisson de paramètre
0
Nt0 ,
est un processus ponc-
t. Il est équivalent de dire que : 1 Nt
est issu de 0 (N0 = 0). 2 Pour tout réels t0 < t1 <
Nt0 ,Nt1
d’intensité
< tn , les variables aléatoires
Ntn 1 , sont indépendantes. 3 Pour tous s et t, s
Ntn
t, Nt
Ns
a même loi que Nt s . 4 Nt suit une loi de Poisson de paramètre t. 5 P 0 (Nt = n) =
( t)n
e
n!
t
.
Proposition 1 Soit k processus de Poisson indépendants (Nti )t 0 respectivement d’ink
k
P
P
tensité i . Alors Nt = Nti est un processus de Poisson d’intensit =
i.
i=1
i=1
47
Théorème 2.1.4 Un processus de Poisson (Nt ; t
0) d’intensité
est markovien, de
matrice de transition
(t )y x
; si y
(y x)!
= 0 sinon.
Pxy (t) = e
t
x,
Mesures aléatoires de Poisson
On va construire une classe beaucoup plus vaste de processus "poissoniens" dits de
Lévy. Soient (S; A) un espace mesurable et
une mesure
…nie sur (S; A).
Dé…nition 2.1.15 Une mesure aléatoire de Poisson N sur (S; A) est une collection de
variables aléatoires (N (B); B 2 A) telle que :
1) pour tout B 2 A tel que (B) < +1, N (B) suit une loi de Poisson de paramètre
(B),
2) si A1 ; :::; Am sont des ensembles disjoints de A, les variables aléatoires N (A1 ); :::; N (Am )
sont indépendantes,
3) pour tout ! 2
, l’application A
! N (A; !) est une mesure de comptage sur
(S; A).
Si N est un processus de Poisson alors la quantité
N ([0; t]
A) = # f0
est une mesure aléatoire de Poisson sur R+
B (R) d’intensité dt
On peut aussi écrire
N ([0; t]
t; 4Ns 2 Ag ,
s
A) =
X
si ;xi
d avec ( ) =
1(
).
(2.4)
i
Lemme 2.1.1 Si A est borné inférieurement et borélien, alors N ([0; t] A) < 1 presque
sûrement.
48
Théorème 2.1.5 Si A est borné inférieurement, alors le processus (N ([0; t]
A); t
0)
est un processus de Poisson d’intensité (A). De plus si A1 ; :::; Am 2 B (R) sont disjoints
alors les variables aléatoires N ([0; t]
A1 ); :::; N ([0; t]
Pour la démonstration voir [27] page 22. Pour t
Am ) sont indépendantes.
0 et A borné inférieurement, on
~ par :
dé…nit la mesure aléatoire de Poisson compensée N
~ ([0; t]
N
A) = N ([0; t]
A)
(2.5)
t (A).
Intégration de Poisson
Soit N une mesure aléatoire de Poisson d’intensité dt
sur R+
B (R). Si f : R !
Rn est une fonction Borel-mesurable et si A 2 B (R) véri…e (A) < +1, on dé…nit pour
tout t
0 et ! 2
l’intégrale de Poisson de f par
Z
f (z) N (t; dz) =
A
X
f (z) N ([0; t]
z2A
fzg).
On remarque que la dé…nition ci-dessus ne pose pas de problème car la somme est une
somme aléatoire …nie.
Théorème 2.1.6 Soit A un ensemble borélien borné inférieurement. Alors :
R
1- pour tout t 0, A f (z) N (t; dz) suit une loi de Poisson composée caractérisée par
E[exp i
Z
f (z) N (t; dz) ] = exp t
A
Z
eif (z)
1
A
2- si f 2 L1 (A; ) on a :
E[
Z
f (z) N (t; dz)] = t
A
Z
f (z) dz,
A
3- si f 2 L2 (A; ) on a :
var[
Z
f (z) N (t; dz)] = t
A
Z
A
49
j f (z) j2 dz.
dz ,
2.1.6
Propriété de martingale
L’une des façons de voir les martingales est la généralisation des sommes de variables
indépendantes centrées, il faut pour cela dé…nir la notion de …ltration.
Dé…nition 2.1.16 (Filtration naturelle) On appelle …ltration naturelle d’un processus
0 , où FtX =
X la famille croissante de tribus FtX ; t
(Xs ; 0
s
t).
La tribu Ft représente l’information contenue dans le processus X entre 0 et t. Plus
généralement, on peut avoir besoin de mesurer des événements concernant les histoires
de plusieurs processus. Il faut alors se donner une famille de tribus su¢ samment riche
pour contenir les histoires de tous ces processus.
Dé…nition 2.1.17 (Filtration) Soit ( ; F; P ) un espace de probabilité, Une …ltration
fFt ; t
s
0gsur ( ; F; P ) est une famille croissante de sous-tribus de F, i.e. Fs
t.
; F; (Ft )t
0
Ft si
; P est appele espace de probabilité …ltré. Un processus stochastique
est Ft -adapté (adapté à la …ltration (Ft )t
0
) si Xt est Ft -mesurable, pour tout t
0.
Ft représente maintenant toute l’information disponible à l’instant t. En particulier,
tout processus est adapté à sa …ltration naturelle.
Dé…nition 2.1.18 Soit X = (Xt )t2T un processus stochastique dé…ni sur un espace de
probabilité …ltré ( ; F; fFt ; t
0g ; P ) adapté, et tel que E(jXt j) < +1, 8t
0. On dit
que (Xt )t2T est une
Ft -sous-martingale si E(Xt jFs)
Xs , 0
(Ft )-sur-martingale si E(Xt jFs)
(Ft )martingale si E(Xt jFs ) = Xs , 0
Xs , 0
s
s
t,
s
t,
t.
Le mouvement brownien (Bt ) est un exemple de martingale pour sa tribu naturelle.
En e¤et, à cause de l’indépendance des accroissements et de leur loi, on a
50
E(Bt jFsB ) = E(Bs + (Bt
Bs ) jFsB );
= Bs + E (Bt
Bs ) ;
= Bs .
On a bien pris soin de véri…er que le processus est bien intégrable, puisque Bt
En utilisant la même technique, on peut montrer que Bt2
N (0; 1).
t est une martingale.
Le processus de Poisson compensé voir 2.5 dé…ni par Nt
t est une martingale
centrée pour sa tribu naturelle. En e¤et
E(Nt jFs) = E(Ns + (Nt
Ns ) jFs);
= Ns + E(Nt
Ns );
= Ns + (t
s) ;
et donc
E (Nt
2.1.7
tjFs) = Ns
s:
Processus de Markov
On considère un espace de probabilité …ltré
Dé…nition 2.1.19 Un processus X sur
; F; (Ft )t
; F; (Ft )t
0
0
;P
; P à valeurs dans (E; ) est ap-
pelé processus de Markov lorsque :
P (Xt+h 2 BjXs ; s
pour tout t; h
t) = P (Xt+h 2 BjXt ) ;
0 et B 2 .
51
(2.6)
La propriété 2.6 dite de Markov, signi…e que l’avenir du processus X ne dépend du
passé que par l’intermédiaire du présent ou, en d’autres termes, conditionnellement au
présent, futur et passé sont indépendants.
Dé…nition 2.1.20 Un processus stationnaire X sur un espace de probabilité
; F; (Ft )t
à valeurs dans (E; ) est appelé processus de Markov fort lorsque :
P Xt+h 2 AjFtX = P (Xt+h 2 AjXt )
pour tout h
0, A 2 , t temps d’arrêt …ni et FtX =
(Xs ; s
t) la …ltration naturelle
du processus X voir 2.1.16.
Le mouvement brownien B standard et le processus de Poisson N d’intensité
sont fortement markoviens, plus précisément pour tout temps d’arrêt
(Nt+
N )t
(Bt+
Bt )t
0
0
est un processus de Poisson d’intensité
0
…ni :
et indépendant de F N .
est un mouvement brownien indépendant de F B .
Fonctionnelles additives
En partant d’un processus de Markov donné X on peut construire d’autres processus
de Markov à l’aide de la notion de fonctionnelles additives. On a la
Dé…nition 2.1.21 Soit (St ) un processus croissant, adapté à la …ltration (Ft ). On dit
que (St ) est une fonctionnelle additive, on notera simplement f.a., si pour tout couple
( ; t) 2 R2+ , on a S
+t (!)
= S (!) + St ( !), où
t
: ! (s) ! ! (s + t) est l’opérateur
de translation.
Exemple 2 Soit f une fonction mesurable positive. Posons St =
Zt
f (Xs )ds. Il n’y a
0
aucune di¢ culté à véri…er que St est une fonctionnelle additive si f est bornée.
On a, voir [7], le
52
0
;P
Théorème 2.1.7 Soit X un procesuus de Markov et S une f. a. continue alors le processus X (S
1
(t; !) ; !), dont le temps obéit à une nouvelle horloge, est markovien.
Si la fonctionnelle est discontinue on ne peut plus fabriquer d’horloge et la théorie
n’est pas bien connue.
Voyons comment se transforme le semigroupe après ce changement de temps. On doit
d’abord construire la fonctionnelle multiplicative associée Mt = e
S(t)
, ensuite on dé…nit
le nouveau semigroupe
TtS f (x) = E x [Mt f (Xt )]:
(2.7)
Si la fonctionnelle est du type de l’exemple 2, alors le générateur de TtS sera donné, voir
[29] où ce genre de résultats est connu sous le nom de formules de Feynman-Kac, par
TtS = A
f.
Remarquons que la résolvante, voir ??, correspond tout simplement à f =
(2.8)
constante.
La puissance des méthodes probabilistes provient du fait qu’on peut considérer des
transformations à l’aide de fonctionnelles multiplicatives qui ne sont pas de la forme
exp(A(t)) où A est additive.
2.1.8
Processus de Markov de saut pur
Ces processus sont importants au chapitre III. Donnons d’abord quelques notions de
Chaînes de Markov. Nous étudions ensuite un cadre général de processus de saut.
Chaînes de Markov
Les chaînes de Markov, considérées dans ce paragraphe, seront des processus en temps
discret, i.e. des suites X0 ; X1 ; :::; Xn ; ::: de variables aléatoires dé…nies sur un même espace
de probabilités ( ; F; P ) et prenant leurs valeurs dans un ensemble dénombrable d’états
E, muni de la tribu formée de toutes ses parties P (E).
53
Dé…nition 2.1.22 Un processus X0 ; X1 ; :::; Xn ; ::: à valeurs dans E est appelé chaîne de
Markov si pour tout n
1 et tout (X0 ; X1 ; :::; Xn 1 ) 2 F n tel que P (X0 = x0 ; :::; Xn
1
=
xn 1 ) 6= 0
P (Xn = xjXn
1
= xn 1 ; :::; X1 = x1 ; X0 = x0 ) = P (Xn = xjXn
1
= xn 1 ),
(2.9)
pour tout x 2 E.
La propriété de Markov 2.9 signi…e que la loi de Xn de dépend que du dernier état
visité, à l’instant n
1. C’est le caractère « sans mémoire » des processus de Markov,
analogue des systèmes déterministes dé…nis par des équations du type : xn = f (xn 1 ) ;
Le rôle de la fonctionf sera joué par la matrice de transition M dé…nie par :
M (x; y) = P (Xn = yjXn
1
= x); x; y 2 F .
(2.10)
Les matrices de transition, considérées dans ce paragraphe seront supposées stationnaires,
i.e indépendantes de n. La chaîne de Markov correspondante est alors dite homogène.
Processus de saut pur
Fondamentalement, supposer Xt markovien implique que les temps d’attente Sn sont
indépendants et à valeurs dans N et continus a droite. Un tel processus possède donc des
trajectoires constantes par morceaux. Il reste sur un premier état i1 pendant un intervalle
de temps S1 , puis saute sur un second etat i2 pendant un intervalle de temps S2 , etc. On
dé…nit les temps d’arrêt :
T0 = 0 et Tn+1 = inf (t
54
Tn : Xt 6= XTn ) ;
Sn = Tn
Tn
1
si Tn
1;
1
= +1 sinon.
Tn sont les instants de saut auxquels se produisent les événements et Sn sont les temps
d’attente entre deux événements. Le processus (Yn )n2N dé…ni par
Yn = XTn ,
est un processus en temps discret appelé chaîne incluse. On pose :
T1 = supTn =
n2N
X
Sn :
n 1
Juste avant l’instant T1 le processus "s’emballe" en sautant une in…nité de fois, T1 est
appelé temps d’explosion. Le processus peut se poursuivre après cet instant mais toute
fois nous allons convenir que
Xt = +1; 8t
T1 .
Nous dirons dans ce cas que le processus est minimal. Un processus minimal est donc entièrement caractérisé par ses temps d’attente S1, S2
(ou ses instants de saut T0 ; T1
)
et pas sa chaîne incluse (Yn )n2N .
2.1.9
L’intégrale stochastique
Dans cette section on cherche à dé…nir des variables aléatoires du type
!7 !
Z
T
Xs dMs (!),
0
55
(2.11)
où fXt ; t
0g est un certain processus et fMt ; t
0g est une martingale, par exemple
un mouvement brownien. Le problème est bien sûr de donner un sens à l’élément différentiel dMs puisque la fonction s 7 ! Bs n’est pas dérivable. Un objet mathématique
adéquat, introduit par K. Itô en 1942, est l’intégrale stochastique. Une justi…cation de
l’approche que nous allons utiliser est la remarque suivante : il est facile de donner un
RT
sens à 0 Xs dMs en prenant une partition 0 = t0 < t1 <
< tn = T de l’intervalle
[0; T ]. Pour …xer les idées, soit Ms = Bs .
L’intégrale de Wiener
L’intégrale de Wiener est simplement une intégrale du type 2.11 avec X fonction
déterministe, i.e. ne dépendant pas de !.
Le cas des fonctions en escalier
Si X = f est une fonction en escalier, que l’on note simplement f (t) =
n
P
i 1[ti ;ti+1 ]
(t)
i=1
il est très facile de dé…nir son intégrale de Wiener par :
IT (X) =
Z
T
f (s) dBs =
0
n
X
i
Bti+1
Bti :
i=1
Remarquons que par le caractère gaussien du Brownien et l’indépendance de ses accroissements, la variable aléatoire IT (f ) est une variable gaussienne d’espérance nulle et de
variance
V ar [IT (f )] =
n
X
2
iV
ar Bti+1
Bti ;
i=1
=
=
n
X
i=1
Z T
2
i
(ti+1
ti ) ;
f 2 (s) ds:
0
De plus, on remarque que f 7 ! IT (f ) est une fonction linéaire au sens où IT (af + bg) =
56
aIT (f ) + bIT (g) pour toutes fonctions f , g en escalier et tous a, b 2 R, en…n on a
E [IT (f ) IT (g)] = (1=2) (V ar [IT (f ) + IT (g)] V ar [IT (f )] V ar [IT (g)]) ;
Z T
Z T
Z T
2
2
(f + g) (s) ds
f (s) ds
g 2 (s) ds ;
= (1=2)
0
0
0
Z T
f (s) g (s) ds:
=
0
Cette dernière égalitést très importante et signi…e que l’application f 7 ! IT (f ) est une
isométrie de L2 ([0; T ] ; R) dans L2 ( ; P ). On parle alors de la propriété d’isométrie de
l’intégrale de Wiener, ce qui signi…e
hIT (f ) ; IT (g)iL2 (
)
= hf; giL2 (R) :
Le cas général
Pour construire IT (f ) quand f est un élément quelconque de L2 ([0; T ] ; R), on utilise
l’isométrie miseen place et les deux lemmes suivants :
Lemme 2.1.2 Soit f 2 L2 ([0; T ] ; R). Il existe une suite de fonctions en escalier ffn ; n
que kf
fn k ! 0 quand n ! +1.
Lemme 2.1.3 Soit fXn ; n
0g une suite de variables gaussiennes N (
geant vers une v.a. X dans L2 (soit telle que E [j X
Alors,
n
!
et
n
!
n;
n)
conver-
Xn j2 ] ! 0). quand n ! +1
quand n ! +1 et X v N ( ; ).
Soit maintenant f 2 L2 ([0; T ] ; R) et soit, d’après le Lemme 2.1.2,ffn ; n
suite de fonctions en escalier telle que kf
fn k
! 0 quand n
0g une
! +1. D’après le
paragraphe précédent on peut construire les intégrales de Wiener IT (fn ) qui sont des
gaussiennes centrées qui, par isométrie forment une suite de Cauchy. L’espace L2 étant
complet, cette suite converge vers une v.a. gausienne notée IT (f ). Par le Lemme 2.1.3,
IT (f ) v N (0; kf k). l’application IT (f ) est linéaire et isométrique de L2 ([0; T ] ; R) dans
57
0gtelle
L2 ( ; P ), au sens où IT (af + bg) = aIT (f )+bIT (g) et E [IT (f ) IT (g)] =
RT
0
f (s) g (s) ds,
pour tous a, b 2 R et f ,g 2 L2 ([0; T ] ; R). En …n IT (f ) est une variable gaussienne mesurable qui véri…e pour tout t 2 [0; T ]
Z
Z
T
T
E [IT (f ) Bt ] = E
f (s) dBs
1[ti ;ti+1 ] (s) dBs
0
0
Z T
f (s) 1[ti ;ti+1 ] (s) ds,
=
0
Z T
f (s) ds,
=
,
0
où la deuxième égalité provient de la formule d’isométrie. Par propriété d’espace gaussien,
cette formule caractérise l’intégrale stochastique : IT (f ) est l’unique v.a. Z gaussienne
RT
mesurable telle que E [ZBt ] = 0 f (s) ds pour tout t 2 [0; T ].
L’intégrale stochastique générale
On cherche maintenant à dé…nir la v.a.
Z
t
s dBs ,
0
quand f s ; s
0g est un processus stochastique. Le caractère aléatoire de
va exiger des
conditions supplémentaires par rapport au cas de l’intégrale de Wiener. On note FtB ;
t
0 la …ltration naturelle du mouvement brownien B.
Comme dans le cas de l’intégrale de Wiener, la construction de It ( ) se fait par
discrétisation :
Cas des processus étagés
Ce sont les processus du type
t
=
n
X
i 1[ti ;ti+1 ]
i=1
58
(t) ,
où n 2 N, 0 = t0 < t1 <
< tn = T et
i
2 L2 ( ; Fti ; P ) pour tout i = 0
n. On
dé…nit alors
It ( t ) =
Z
t
s dBs
=
0
n
X
i
Bti ,
Bti+1
i=1
et on véri…e que
E [It ( t )] = 0 et V ar [It ( t )] = E
Z
t
( s )2 ds .
0
Cependant, on prendra garde que par le caractère aléatoire de
t,
la variable It ( t ) n’est
pas une Gaussienne en général.
cas général
Le principe est le même que pour l’intégrale de Wiener, mais les outils mathématiques sous-jacents plus compliqués que les lemmes hilbertien et gaussien du paragraphe
est un bon processus, on montre d’abord qu’il existe f n ; n 0g suite
i
hR
t
n 2
)
ds
! 0 quand n ! +1, puis que pour
de processus étagés telle que E 0 (
s
précédent. Si
tout t > 0 il existe une v.a. It ( ) de carré intégrable telle que E (It ( )
quand n
It ( n ))2
!0
! +1, avec It ( n ) dé…ni comme au paragraphe précédent. On pose alors
naturellement
It ( ) =
Z
t
s dBs ,
0
pour tout t > 0.
2.2
Espace de Fock poissonien
On va dé…nir un espace de Fock classique, i.e. où i ne …gure pas. On suivera l’article [22]. Le calcul anticipatif (calcul de Malliavin) pour le mouvement brownien a été
développé par plusieurs auteurs, voir un compte rendu dans [21]. Ce calcul stochastique
est basé sur l’intégrale de Skorokhod , qui est l’adjoint de l’opérateur de dérivation D
59
de Malliavin. Il y a des propriétés de base de
et D qui s’expriment en terme de chaos
de Wiener. Ce fait nous mène naturellement à étudier ces opérateurs dans un contexte
di¤érent comme le cas poissonien. Plus généralement ces opérateurs peuvent être dé…nis
dans un espace de Fock arbitraire associé à l’espace de Hilbert H.
Soit H un espace de Hilbert réel, le produit tensoriel symétrique Hs est dé…ni comme
n
dans 2.3.4. Dans Hs on considère la norme
n
kf k2Hsn = n! kf k2H
n
Dé…nition 2.2.1 L’espace de Fock associé à H est l’espace de Hilbert
(H) =
muni du produit scalaire
hh; gi
t.q. h =
1
P
hn , g =
n=0
1
P
(H)
=
1
n=0
1
X
n=0
Hs
n
hhn ; gn iHsn ,
gn
n=0
On prendra H = L2 (E) où (E; ; ) est essentiellement un espace mesuré
Dans ce cas H
n
…nie.
est isométrique à L2 (E n ). Ses éléments sont les intégrales stochastiques
poissoniennes multiples. La martingale directrice est une mesure de Poisson compensée
In (f ) =
Z
f (t1 ; :::; tn ) (!
) (dt1 ) ::: (!
) (dtn ) ;
Tn
où !
est la mesure de Poisson compensée et T n = f(t1 ; :::; tn ) 2 T n : ti 6= tj 8i 6= jg.
60
2.2.1
Opérateur d’annihilation
Dé…nition 2.2.2 L’opérateur d’annihilation, qui agit des processus, est donné par
Dt F (!) = F (! + t )
F (!) ;
où ! est donné par 2.4.
Le lemme suivant montre qu’il s’agit d’un opérateur de dérivation
Lemme 2.2.1 Soient F et G deux fonctionnelles, alors on a
Dt (F G) = F Dt (G) + G Dt (F ) + Dt (F ) Dt (G) :
Preuve.
Dt (F G) = F (! + t ) G (! + t )
= F (! + t ) G (! + t )
F (!) G (!) ,
F (! + t ) G (!) + F (! + t ) G (!)
F (!) G (!) ,
= F (! + t ) Dt (G) + Dt (F ) G (!) ,
= (F (! + t )
F (!)) Dt (G) + Dt (F ) G + F Dt (G) ,
= F Dt (G) + GDt (F ) + Dt (F ) Dt (G) .
2.2.2
Opérateur de création
Soit u un processus dans L2 (E; L2 ( )), par le développement en chaos (Poissonien)
on a
ut =
X
In (fn (t1 ; :::; tn ; t)) ;
n 0
pour presque tout t où ut est une fonction dans L2s (T ).
61
Dé…nition 2.2.3 L’opérateur de création, qui agit des processus, est donné par
(u) =
X
In+1 f~n (t1 ; :::; tn ; t) ,
n 0
pour vu que
X
(n + 1)! f~n (t1 ; :::; tn ; t)
n 0
où
1
f~n (t1 ; :::; tn ; t) =
(n + 1)!
( n
X
2
L2 (T n+1 )
< +1;
)
fn (t1 ; :::; t; :::; tn ; ti ) + fn (t1 ; :::; tn ; t) :
i=1
Pour un calcul pratique on utilise le théorème suivant
Théorème 2.2.1 Soit u 2 L2 (T; L2 ( ))
L2 (T
), u 2 Dom et F 2 D
L2 ( ).
On suppose encore que DF u 2 Dom . Alors
Ft u 2 Dom ;
et
(Ft u) = F (u)
Z
ut Dt F (dt)
(DF u) :
T
Preuve. Si G 2 D, est une variable test, et utilisant D est dense dans L2 ( ),
E
Z
T
F ut Dt G (dt) =
Z
ut fDt (F G)
GDt F Dt F Dt Gg (dt)
Z
= E [F G (u)] E G ut Dt F (dt)
E [G (uDF )]
T
Z
= E G F (u)
ut Dt F (dt)
(uDF )
T
T
= E [G (F u)] :
62
2.3
Probabilité non commutative
Nous venons de voir comment les probabilités classiques s’articulent autour de la
théorie de la mesure et intégration. On verra ici que les probabilités non commutatives
sont basées sur l’analyse fonctionnelle et espaces de Hilbert. Nous passons donc en revue
quelques éléments de ces théories.
2.3.1
Rappels sur analyse fonctionnelle et Espace de Hilbert
La notion d’espace de Hilbert réel ou comlexe, est bien connue. Nous demandons au
lecteur de bien remarquer la forme particulière du produit scalaire voir 1.4.Voici quel
qu’exemples
Exemple fondamentaux
1- L’espace Cn , muni du produit scalaire dé…ni par
hx; yi =
n
X
xi yi ,
i=0
est un espace de Hilbert complex. La base canonique de Cn est une base orthonormale.
P
2- L’espace `2 (N) = (un ) t.q
j un j2 < 1 est muni du produit scalaire
n2N
hu; vi =
X
un v n ,
est un espace de Hilbert complex. Pour k 2 N, on note ek la suite dont tous les termes
sont nuls, à l’exception du k-ème quivaut 1. Alors (ek )k2N est une base orthonormale de
`2 (N).
3- Si ( ; F; ) est un espace mesuré, l’espace
2;
L ( ; F; ) =
f :
! C t.q:
Z
j f (x) j2 dx < +1
est un espace de Hilbert quand on le munit du produit scalaire
63
,
hf; gi =
Z
f (x)g (x) d (x).
Dans la suite, H désigne un espace de Hilbert complexe séparable et h ‚i le produit
scalaire.
Parties complètes
Soit A une partie non vide de H
Dé…nition 2.3.1 L’orthogonal de A est l’ensenble A? tel que A? = fx 2 H : hx; yi = 0 8y 2 Ag.
8
>
>
A si A est une partie quelconque,
>
<
?
Remarque 2.3.1 A? =
A si A est un sous-espace véctoriel de H,
>
>
>
: A si A est un sous-espace véctoriel fermé de H.
Dé…nition 2.3.2 Soit A un sous-ensemble de H, on appelle enveloppe linéaire de A et
on note Lin (A), le plus petit sous-espace contenant A
P
Lin (A) coïncide avec l’ensemble des combinaison linéaire …nie d’éléments de A (
i xi
Lin (A))
Dé…nition 2.3.3 Une suite orthonormé (en )n2N (i.e. hek ; el i =
k;l
pour tout k, l 2 N)
dans un éspace de Hilbert H est dit totale (ou complète) si le seul vecteur de H orthogonale
à tous les vecteurs en est le vecteur nul i.e. y 2 H tq hy; en i = 0; 8n 2 N =) y = 0.
On dit que (en )n2N est une base hilbertienne de H.
Remarque 2.3.2 (en )n2N suite orthonormé totale , Lin (e1
en ) = H:
Domaine, graphe et fermeture
On rappelle que la somme directe H
H est l’espace de Hilbert H
produit scalaire h(x; y) ; (x0; y0)i = hx; x0iH + hy; y0iH .
64
H muni du
Dé…nition 2.3.4 Un opérateur dans H est une application linéaire T dé…nie sur un
sous-espace vectoriel D (T )
H à valeurs dans H. D (T ) est appelé le domaine de
l’opérateur.
On note un opérateur par (T; D (T )) mais s’il n’y a pas d’ambiguïté concernant son
domaine on pourra noter simplement par T .
Dé…nition 2.3.5 On dit qu’un opérateur (T; D (T )) dans H est borné si D (T ) = H et
T : H ! H est continue.
Les opérateurs bornés sur H forment une algebre notée B (H), qui est une algèbre de
Banach pour la norme k k.
Il y a d’autres topologies intéressantes sur B (H), citons entre autres la topologie
fort
forte, qui est celle de la convergence simple sur H i.e kTn k ! kT0 k si et seulement si
8x 2 H Tn (x) ! T0 (x), et qui est (malgré son nom) plus faible que celle de la norme
i.e kT
T0 k ! 0.
Dé…nition 2.3.6 Le graphe d’un opérateur (T; D (T )) est le sous-espace de H H donné
par
(T ) = f(x; T x) : x 2 D (T )g .
Dé…nition 2.3.7 On dit que (S; D (S)) est une extension de (T; D (T )) si D(T )
et T x = Sx pour tout x 2 D(T ), (Autrement dit, (T )
(S)).
Dé…nition 2.3.8 On dit que (T; D(T )) est fermé si son graphe
H
D(S)
(T ) est un fermé de
H.
Proposition 2 Un opérateur (T; D(T ))est fermé si et seulement si pour toute suite (xn )
de D(T ) telle que limxn = x et limT xn = y on a alors x 2 D(T ) et y = T x.
n
n
Proposition 3 Soit (T; D(T )) un opérateur fermé. Alors T est borné si et seulement si
D(T ) = H.
65
Dé…nition 2.3.9 On dit qu’un opérateur(T; D(T )) est fermable s’il possède une extension fermé.
Proposition 4 Tout opérateur fermable (T; D(T )) admet une plus petite extension fermée notée T . De plus, on a (T ) = (T )
Spectre des opérateurs continus
Soit T 2 B (H),
Dé…nition 2.3.10 Une valeur régulière de T est un élément
2 C tq (T
I) soit
inversible, i.e. une bijection continue de D (T ) sur H.
L’ensemble des valeurs régulières de T est appelé l’ensemble résolvant de T . Un élément de C qui n’est pas une valeur régulière de T est appelé une valeur spectrale de T .
L’ensemble des valeurs spectrales est appelé le spectre de T , et noté Sp (T ) ou
L’application RT :C=Sp (T ) ! B (H) dé…nie par
! (T
I)
1
(T ).
s’appelle l’applica-
tion résolvante de T .
Dé…nition 2.3.11 Le rayon spectral de T est
r (T ) = sup j
2Sp(T )
(avec la convention usuelle que r (T ) =
j,
1 si Sp (T ) est vide).
Dé…nition 2.3.12 Une valeur propre de T est un élément
2 C tq le noyau de (T
non nul (ou, de manière équivalente, tel que l’application linéaire (T
I)soit
I) ne soit pas
injective).
Le sous-espace vectoriel ker (T
I) est alors appelé l’espace propre de T associé à
. La dimension de cet espace propre (qui peut être in…nie) est appelé la multiplicité de
. Un élément non nul de ker (T
I) est appelé un vecteur propre de T associé à la
valeur propre . L’ensemble des valeurs propres est noté V p (T ), et aussi appelé le spectre
ponctuel de T .
66
Dé…nition 2.3.13 Le spectre résiduel de T est l’ensemble, noté Spres (T ), des
non valeurs propres tels que l’image de (T
2 C
I) ne soit pas dense dans H.
Exemple 3 Si H 6= f0g et si T est l’opérateur nul, alors Sp (T ) = V p (T ) = f0g et
Spres (T ) = ;. Si H 6= f0g et si T est l’opérateur identité, alors Sp (T ) = V p (T ) = f1g
et Spres (T ) = ;.
Remarque 2.3.3 1- Si H est de dimension …nie n, alors tout opérateur linéaire de H
est continu et tout sous-espace vectoriel de H est fermé. Donc (T
et seulement si (T
I) est inversible si
I) est injectif ou surjectif. Le spectre résiduel est donc vide. Les
valeurs spectrales de T sont donc les valeurs propres de T .
2- Toute valeur propre est une valeur spectrale : V p (T )
Sp (T ), en dimension …nie,
nous venons de voir que cette inclusion est une égalité.
3- Si l’image de (T
Spres (T )
I) n’est pas dense, alors (T
Sp (T ), et par hypothèse, on a même Spres (T )
I) n’est pas surjectif, alors
Sp (T ) =V p (T )
4- Pour tout
dans C=f0g, nous avons
5-Sp ( T ) =
Sp (T ), V p ( T ) = V p (T ), Spres ( T ) = Spres (T ) et r ( T ) =j
j
r (T ).
Opérateurs auto-adjoints
Adjoint d’un opérateur Soient E, F et G des espaces de Hilbert
Proposition 5 Pour tout T 2 B (E; F ), il existe une unique application T 2 B (F; E)
tq
hT y; xiE = hy; T xiF 8x 2 E y 2 F .
L’application T
! T est involutive (i.e. (T ) = T ), anti-linéaire (i.e. (T + k) =
T + k , isométrique (i.e. kT k = kT k) et véri…e I = I et (T
k) = k
T 8T 2
B (E; F ), k 2 B (G; E). L’opérateur continu T est inversible si et seulement si T l’est,
et alors (T )
1
= (T
1
).
67
L’application T est appelée l’adjoint de T . Un opérateur de la forme T est toujours
fermé.
Dé…nition 2.3.14 Soit H un espace de Hilbert, un opérateur T 2 B (H) est dit
auto-adjoint (ou hermitien) si hT x; yi = hx; T yi 8x; y 2 H),
normal si T T = T T ,
unitaire s’il est borné, inversible et T T = T T = I (T = T
positif si hT x; xi
1
),
0 8x 2 H.
de rang …ni si ImT est de dimension …ni.
Si T est de rang …ni, alors T est de même rang (…ni).
On dit que T est compact si pour tout suite (xn ) unitaire de H on peut extraire une
sous suite (xk ) tel que son image par T est une suite convergente.
Tout opérateur T de rang …ni est compact et tout opérateur compact est continu.
Pour qu’un opérateur T soit compact il faut et il su¢ t qu’il soit limite d’une suite
d’opérateurs de rang …ni.
Les projections sur H sont des opérateurs positifs p = p = p2 .
Propriétés élémentaires des opérateurs auto-adjoints Les propriétés élémentaires principales des opérateurs auto-adjoints sont résumées dans la proposition suivante
Proposition 6 Soient H un espace de Hilbet et T 2 B (H)
1) Le spectre de l’adjoint T de T est l’ensemble des conjugués des éléments du spectre
de T :
Sp (T ) = Sp (T ):
Si T est inversible, alors le spectre de son inverse T
éléments du spectre de T : (SpT
1
1
est l’ensemble des inverses des
) = [Sp (T )] 1 .
2)L’orthogonal de l’image de T est le noyau de son adjoint et le noyau de T est l’orthogonal de l’image de son adjoint : (ImT )? = kerT , kerT = (ImT )? .En particulier,
T est injectif si et seulement si T est d’image dense.
68
3)Supposons que H 6= f0g. Si T est auto-adjoint, si M = sup hT x; xi et m =
inf hT x; xi, alors M et m appartiennent au spectre de T , Sp (T )
kxk=1
kxk=1
r (T ) = kT k = sup j hT x; xi j= max fM
[m; M ], et
mg :
kxk=1
4)Si T est auto-adjoint, alors son spectre résiduel est vide : Spres (T ) = ;.
Pour la démonstration de cette proposition voir Paulin [23] page 42.
Résolution spectrale des opérateurs auto-adjoints
Le but de cette partie est de décrire un opérateur auto-adjoint d’un espace de Hilbert
par des quantités dé…nies sur son spectre. Les projecteurs orthogonaux jouent un rôle
important.
Dé…nition 2.3.15 Un projecteur orthogonal d’un espace de Hilbert H est un opérateur
continu p de H tel qu’il existe un sous-espace vectoriel fermé F de H tq p(x) soit la
projection orthogonale de x sur F pour tout x 2 H . Notons que F est alors l’image de
p.
Il est clair que p est un opérateur auto-adjoint idempotent (i.e. p = p2 ). On note
} (H) l’ensenble de tous les opérateurs de projection sur H.
Dé…nition 2.3.16 Soit H un espace de Hilbert. Une famille (p )
2R
des projecteurs
orthogonaux de H est appelée une résolution de l’identité de H si
1- p
p = pminf
2- p = 0 si
; g,
est assez petit, et p = I si
est assez grand,
3-pour tout x dans H, nous avons lim + p (x) = p (x).
!
Proposition 7 Soient H un espace de Hilbert complexe, (p )
2R
une résolution de l’iden-
tité, et f 2 C(R; C). Il existe un unique opérateur continu T 2 B (H) tq, pour tout x 2 H,
hT x; xi =
Z
f ( ) dhp x; xi.
2R
69
Cet opérateur continu est auto-adjoint si f est à valeurs réelles, et positif si f est à
valeurs positives. Cet opérateur continu sera noté
T =
Z
f ( ) dp .
2R
Théorème 2.3.1 (Résolution spectrale) soient H un espace de Hilbert et T 2 B (H) un
opérateur auto-adjoint de H. Il existe une et une seule résolution de l’identité (p )
2R ,
appelée la résolution spectrale de T , tq pour tout f 2 C (Sp (T ))
f (T ) =
Z
f ( ) dp .
2Sp(T )
Groupe à un paramètre
Il n’est pas toujours facile de véri…er qu’un opérateur donné est auto-adjoint (un critère bien connu est de trouver un groupe unitaire généré par un opérateur auto-adjoint).
Dé…nition 2.3.17 Un groupe à un paramètre est une famille (Tt )t2R d’opérateures unitaires fortement continus en t i.e pour tout x 2 H, lim Ts x = Tt x et t.q. Tt+s = Tt Ts
s !t
pour tout s,t 2 R
Si A est un opérateur auto-adjoint de H, alors la famille Tt = eitA est un groupe à
paramètre, la réciproque est connue sous le nom de théorème de Stone. Si (Tt )t2R est un
groupe à un paramètre, alors il exéste un opérateur A auto-adjoint de H tel que Tt = eitA .
plus précisément on a le
Théorème 2.3.2 Soit (Tt )t2R un groupe fortement continu d’opérateures unitaires et A
un opérateur tq
D (A) =
(
1 Tt ( )
2 H; lim
t !0 i
t
)
existe .
Alors D (A) est dense dant H, et l’opérateur A dé…ni sur le domaine D (A) par A =
lim 1i Ut ( t)
t !0
est un opérateur auto-adjoint de plus on a Tt = eitA .
70
T s’appelle le générateur de Stone du groupe (Tt ).
Remarque 2.3.4 Pour un opérateur non borné A, le cas f (A) = exp (itA) est spécial
et existe toujours : c’est le théorème de Stone 2.3.2. Sinon, on devra utiliser le théorème
spectral.
Opérateur à trace et états
Dé…nition 2.3.18 Soit T un opérateur borné, on dit que T est à trace si
1
P
n=0
j hT en ; en i j
< +1 pour une base orthonormale (en ) de H. La trace de T est la quantité tr (T ) =
1
P
j hT en ; en i j qui ne dépend pas de la base utilisée.
n=0
L’ensemble des opérateurs à trace = (H) forment un idéal de l’algèbre B (H), i.e = (H)
est un sous algèbre B (H) et 8A 2 B (H), 8T 2 = (H), AT 2 = (H).
La forme linéaire : T 7! trT satisfait les propriétés suivantes :
1-tr( T1 + T2 ) = trT1 + trT2 8 ,
2 R,
2-tr(T1 T2 ) =tr(T2 T1 ) en particulier, si T est inversible alors trT
1
= (trT )
1
3-trT = trT ,
4-Si T > 0 alors trT > 0,
5-L’espace de B (H) muni du produit scalaire hT1; T2 i =trT1 T2 est un espace de Hilbert,
Dé…nition 2.3.19 Soient x, y 2 H, on dé…ni l’opérateur j xihy j par j xihy j (w) =
hy; wix, 8w 2 H.
Proposition 8 l’application (x; y) 7 !j xihy jsur H
H dans B (H) satisfait les
propriétés suivantes :
1-j xihy j est linéaire pour y et anti-linéaire pour x,
2-(j xihy j) = j xihy j =j yihx j,
3-k j xihy j k = kxkkyk,
4-j x1 ihy1 j j x2 ihy2 j
j xn ihyn j =
n 1
i=1
71
hyi ; xi+1 i j x1 ihyn j,
5-8T 2 B (H) : T j xihy j=j T xihy j=j xihT y j=j xihy j T ,
6-Soit p une projection et fe1 ; e2
en g une base ortonormale de Im (p) alors :
p=
n
X
i=1
j ei ihei j .
Dé…nition 2.3.20 Si T est un opérateur positif de trace 1, la forme linéaire sur B (H)
dé…nie par : S 7 ! trST est appelée l’état correspondant à T .
Par abus de langage, on confondra parfois l’opérateur T avec l’état qu’il dé…ni. L’ensenble des états est une partie convexe, compacte du dual de B (H) dont les poins extrémaux
sont les états de la forme T 7 ! hT u; ui (appelée aussi état purs) où u est un vecteur de
norme 1.
2.3.2
Semi-groupes
Soit E un espace de Banach sur le corps des nombres complexes C, notons par B (E)
l’algèbre de Banach des opérateurs linéaires bornés dans E et par I l’unité de B (E).
Dé…nition 2.3.21 On dit qu’une famille T = (T (t))t
quand pour tout s; t
0
B (E) est un semi-groupe
0 T (t + s) = T (t)T (s), et T (0) = I. Un semi-groupe est dit
uniformément continu quand t 2 R+ ! T (t) 2 B (E) est une application continue,
fortement continu quand t 2 R+ ! T (t)x 2 E est une application continue pour
tout x 2 E.
Dé…nition 2.3.22 On appelle C0 -semi-groupe d’opérateurs linéaires bornés sur E une
famille fT (t)gt
0
B (E) véri…ant les propriétés suivantes
1) T (0) = I ,
2) T (t + s) = T (t)T (s); (8)t; s
0,
3) lim T (t)x = x; (8)x 2 E.
t !0
72
Dé…nition 2.3.23 On appelle générateur in…nitésimal du C0 -semi-groupe fT (t)gt 0 , un
opérateur A dé…ni sur l’ensemble :
D(A) =
T (t)x
!0
t
x 2 E= lim
t
x
existe ,
par :
T (t)x
!0
t
Ax = lim
t
x
; 8x 2 D(A).
Exemple 4 Soit : Cub [0; 1[= ff : [0; 1[! R=f est uniformément continue et bornéeg.
Avec la norme kf kCub [0;1[ = Sup j f ( ) j, l’espace Cub [0; 1[ devient un espace de
2[0;1[
Banach. Soit
(T (t)f )( ) = f (t + ); 8t
0 et
2 [0; 1[.
Evidemment T (t) est un opérateur linéaire, et, en plus, on a :
1-(T (0)f )( ) = f (0 + ) = f ( ). Donc T (0) = I.
2-(T (t + s)f )( ) = f (t + s + ) = (T (t)f )(s + ) = (T (t)T (s)f )( ); (8)f 2 Cub [0; 1[,
donc
3- lim kT (t)f
t !0
T (t + s) = T (t)T (s); 8t; s
(
f kCub [0;1[ = lim
t !0
Sup jf (t + )
0.
)
f ( )j
2[0;1[
= 0, 8f 2 Cub [0; 1[.
De mème, nous avons : kT (t)f kCub [0;1[ = Sup j(T (t)f )( )j = Sup j f (t + ) j
= Sup jf ( )j
2[t;1[
Sup jf ( )j = kf kCub [0;1[ 8t
2[0;1[
Par conséquent fT (t)gt
2[0;1[
2[0;1[
0, donc kT (t)k = 1; (8)t
0.
0 est un C0 -semi-groupe d’opérateurs linéaires bornés sur
Cub [0; 1[, nommé le C0 -semi-groupe de translation à droite.
73
Soit A : D(A)
Cub [0; 1[ ! Cub [0; 1[ le générateur in…nitésimal du C0 - semi-
groupe fT (t)gt 0 . Si f 2 D(A), alors nous avons :
T (t)f ( ) f ( )
,
t !0
t
f (t + ) f ( )
= lim
= f0 ( ) ;
t !0
t
Af ( ) =
lim
uniformément par rapport à . Par conséquent :
D(A)
ff 2 Cub [0; 1[=f 0 2 Cub [0; 1[g.
Si f 2 Cub [0; 1[ tel que f 0 2 Cub [0; 1[, alors :
k
T (t)f
t
f
f 0 kCub [0;1[ = Sup j
2[0;1[
(T (t)f )( )
t
f( )
f 0 ( ) j,
mais :
j
(T (t)f )( )
t
f( )
f ( + t) f ( )
f 0 ( ) j,
t
+t
1
= j f( ) j
f 0 ( ) j,
t
Z+t
1
j [f 0 ( ) f 0 ( )]d j ,
=
t
f0 ( ) j = j
1
t
Z +t
j f0 ( )
f0 ( ) j d
uniformément par rapport à
suite : k T (t)ft
f
f 0 kCub [0;1[ ! 0 si t ! 0 d’où f 2 D(A) et :
ff 2 Cub [0; 1[jf 0 2 Cub [0; 1[g
74
D(A).
! 0,
pour t ! 0. Par
Par conséquent D(A) = ff 2 Cub [0; 1[=f
0
2 Cub [0; 1[)g et Af = f . Comme cet
opérateur est non borné, il ne peut pas engendrer un semi-groupe uniformément continu.
Nous noterons par SG(M; !) l’ensemble des C0 -semi-groupes fT (t)gt
lesquels il existe !
0 et M
0
B( ) pour
1 tel que :
M e!t ; (8)t
k T (t) k
Dans ce cas, on dit que fT (t)gt
0
Proposition 9 Soient fT (t)gt
0
0.
est un C0 -semi-groupe exponentiellement borné.
SG(M; !) et A son générateur in…nitésimal. Si x 2
D(A), alors T (t)x 2 D(A) et on a l’égalité : T (t)Ax = AT (t)x, 8t
Soit x 2 D(A), Alors pour tout t
0.
0, nous avons :
T (h) x x
,
h
T (h) T (r) x T (t) x
= lim
,
h !0
h
T (t)Ax = T (t) lim
h !0
donc T (t)x 2 D(A) et on aT (t)Ax = AT (t)x; 8t
Proposition 10 Soient fT (t)gt
0
2 SG(M; !) et A son générateur in…nitésimal. Alors
l’application
[0; 1[3 t ! T (t)x 2 E,
est dérivable sur [0; 1[, pour tout x 2 D(A) et nous avons :
d
T (t)x = T (t)Ax = AT (t)x; (8)t
dt
Soientx 2 D(A),t
k
T (t + h)x
h
0.
0 eth > 0. Alors :
T (t) x
0.
T (t) Axk
75
T (h) x x
Axk,
h
T (h) x x
M e!t k
Axk.
h
kT (t) kk
Par cons´equent :
T (t + h)x
!0
h
lim
h
T (t) x
= T (t) Ax,
d’où :
d
T (t)x = T (t)Ax; 8t
dt
Si (t
k
0.
h) > 0, alors nous avons :
T (t
h)x T (t) x
h
T (t) Axk
kT (t
M e!(t
T (h) x x
Ax + Ax T (h)Axk
h
x
h) T (h) x
k
Axk + kT (h)Ax Axk.
h
h) kk
Par suite :
lim
h !0
T (t
h)x T (t) x
= T (t) Ax:
h
et :
d
T (t)x = T (t)Ax; (8)t
dt
0
Il s’ensuit que l’application considérée dans l’énoncé est dérivable sur [0; 1[, 8x 2 D(A).
De plus, on a l’égalité :
d
T (t)x = T (t)Ax = AT (t)x; (8)t
dt
0:
Théorème 2.3.3 (l’unicité de l’engendrement) Soient deux C0 -semi-groupes fT (t)gt
et fS(t)gt
S(t); (8)t
0
0
ayant pour générateur in…nitésimal le mème opérateur A. Alors : T (t) =
0.
76
Soient t > 0 et x 2 D(A). Dé…nissons l’application : [0; t] 3 s
! U (s)x = T (t
s)S(s)x 2 D (A), alors
d
d
d
U (s)x =
T (t s)S(s)x + T (t s) S(s)x,
ds
ds
ds
=
AT (t s)S(s)x + T (t s)AS(s)x,
= 0,
8x 2 D(A). Par suite U (0)x = U (t)x, pour tout x 2 D(A), d’où :
T (t)x = S(t)x; (8)x 2 D(A)ett
Puisque D(A) =
et T (t); S(t) 2 B( ), pour tout t
T (t)x = S(t)x; (8)t
0.
0, il résulte que :
0 et x 2 E,
ou bien :
T (t) = S(t); (8)t
2.3.3
0.
Probabilité non commutative
Les probabilités non commutatives ne sont qu’une abstraction directe des axiomes
de Von-Neuman qui ont étés proposés sur la base de résultats empiriques observés au
laboratoire. Heisenberg appelle ce genre de mathématique "phénomenologiques".
On dé…nit habituellement une algèbre de Von-Neuman comme étant une algèbre
d’opérateures dans un espace hilbertien, auto-adjointe et égale à son bicommutant ; ou
oncore auto-adjointe, contenant l’opérateur I et fermée pour une topologie. On peut
aussi caractériser intrinsèquement les algèbres de Von-Neuman de la façon suivante : une
algèbres de Von-Neuman est une algèbre de Banach A, à unité, munie d’une involution
77
et véri…ant les axiomes suivants :
(i) kaa k = kak2 pour tout a 2 A (on dit alors que A est une C -algèbre à unité) ;
(ii) dans l’ensemble A+ des éléments positifs de A, toute famille …ltrante majorée
admée une borne supérieure ;
(iii) pour tout élément non nul a de A il existe une forme linéaire positive normale
f sur A tq f (a) 6= 0 [normale signi…e qu’on a f (sup xn ) = sup f (xn ) pour toute famille
…ltrante majorée (xn ) d’élément de A+ ].
Un espace de probabilité non commutative est la donnée d’un triplet (H; } (H) ; )
où :
H est un espace de Hilbert.
} (H) l’ensemble des projecteurs sur H (l’ensemble des événements de H ).
un état sur } (H).
Variable aléatoire, loi
Dé…nition 2.3.24 Une variable aléatoire non commutative sur l’espace de probabilité
non commutatif (H; } (H) ; ) est un opérateur auto-adjoint sur H .
Une famille d’opérateurs sur un espace de Hilbert indexé par un ensemble T (le temps)
est appelée un processus stochastique non-commutatif.
Si ces opérateurs sont auto-adjoints et commutent, le processus est dit classique.
Dé…nition 2.3.25 Soit E 2 } (H) (un événement), un état. La probabilité de E dans
P
l’état est donnée par la formule : tr E = hui ; ui i tel que : fu1 ; u2
g est une base
orthonormale.
Remarque 2.3.5 0
Si
tr E
1
8E 2 } (H).
est un état pur ( =j uihu j où u est un vécteur unitaire ) alors :
tr E = hu; Eui 8E 2 } (H) :
78
Tout observable A a une résolution spectrale A =
P
A
i Ei
propres de A et EiA l’événement que A prenne la valeur
i,
où les
i
sont les valeurs
alors la probabilité que A
dans l’état est donc égale à tr( EiA ).
P
En particulier : tr( EiA ) = 1.
prenne la valeur
i
i
Dé…nition 2.3.26 La valeur moyenne de Aest donnée par la formule :
tr A =
X
A
i tr( Ei ) = tr
la fonction caractéristique de Adans l’état
(t) =
X
X
A
i Ei ,
est la fonction
eit j tr EjA = tr eitA :
j
Exemple 5 On considère l’espace de Hilbert H = C2 avec sa base canonique e0 (1; 0)
et e1 (0; 1). Une base orthonormée de 0
O (H)(l’
espace des
auto-adjoint
born0
1
0 opérateurs
1
1
0
i
0 1
1 0
@
A;
@
A
A,
nés) est donnée par les matrices : I @
2
1
i 0
1 0
0 1
0
1
1 0
@
A
3
0
1
Les matrices
1,
2,
3
sont connues en physique sous le nom de matrices de Pauli,
elles servent à décrire les particules de spin.
La formule hA; Bi = 12 tr (AB) dé…nit un produit scalaire sur O (H).
Le produit de deux matrices de Pauli est égale à I si elles ont les mêmes indices
I et vaut
i j
=
i
k
i i
=
si les indices sont di¤érents,avec +1 si la permutation (i; j; k) est
circulaire, 1 sinon.
Le crochet classique de deux matrices identique est nul [ i ;
2i
i]
= 0 et vaut [ i ;
j]
=
k.
On rappele que le crochet de deux opérateurs A et B est dé…ni par[A; B] = AB
79
BA.
0
=j e0 ihe0 j= @
Remarque 2.3.6 Létat pur associé au vecteur e0 est
0
@
1 0
0 0
1
A.
Les matrices
l’observable
1
3
et
2
prennent les valeurs +1 et
prend la valeur
La décomposition spectrale de
La probabilité que
+
est
3
=
+
0
1
A
1 0
1 avec mème probabilité
1 avec la probabilité 1.
i
1
avec :
prenne la valeur +1 dans l’état
0
@
1 0
0 0
vaut tr(
1
A;
+)
+
0
@
= 1.
=
1
.
2
0 0
0 1
1
A.
A chaque grandeur de la probabilité classique, on fait correspondre un opérateur
di¤érentiel.
Il est utile de connaitre par coeur le tableau suivant
probabilité classique probabilité quantique
l’espace
l’espace de Hilbert H
projection j uihu j
!
tq Im (j uihu j) = Cu
F
} (H)
A (2 F)
E : H ! H projection
tr : } (H) ! [0; 1]
P (A)
E 7! tr E
X (!) v.a.
E (X)
0
E.D.O. x = f (t; x)
2.3.4
A opérateur auto-adjoint
P
A
E (A) = tr A =
i tr E i
d
( ) = i [ t ; H] ; 0 =
dt t
Espace de Fock complexe
L’espace de Fock est un espace de Hilbert utilisé en physique quantique pour décrire
les états quantiques avec un nombre variable ou inconnu des particules. Mathématiquement, il modélise aussi une répétition d’expériences aléatoires en les combinant toutes
80
simultanément.
L’espace de Fock se dé…nit comme l’espace de Hilbert obtenu par la somme directe des
produits tensoriels des espaces de Hilbert pour une particule. Soit H un espace de Hilbert
complexe, on note H
n foit. H
H
n
n
=H
H le produit tensoriel de H avec lui- même
H
est un espace de Hilbert, muni d’une application (de Gelfand) n-linéaire de
H dans H
H
scalaire hx1 x2
n
notée (x1 ; x2 ;
yn i = hx1 ; y1 ihx2 ; y2 i
x n ; y1 y 2
orthonormale de H, les ei1
xn ) ! (x1
xn ) avec le produit
x2
hxn ; yn i. Si (ei ) est une base
ein forment une base orthonormale de H
ei2
exemple, si H est un espace L2 (E; ), H
n
naturellement donnée par f1
fn (x1 ; x2 ;
f2
s’identi…e à L2 (E n ;
n
) l’application
; xn ) = f1 (x1 ) f2 (x2 )
n
. Par
étant
fn (xn ).
Dé…nition 2.3.27 On appelle espace de Fock construit sur H la somme directe hilbertienne
(H) =
1
n=0
H
n
.
Rappelons que pour un système physique, l’espace de Hilbert est l’espace des états à
une particule. L’espace H
est l’espace H
0
n
est l’espace des états à n particules. L’espace sans particule
= C. L’espace de Fock est l’espace d’un nombre arbitraire de particules,
éventuellement in…ni. Un élément f de
suite appartient à H
est une suite (fn )n2N où chaque élément de la
n
f = (f0 ; f1 (x1 ) ; f2 (x1 ; x2 ) ;
L’élément
= (1; 0; 0;
; fn (x1 ; x2 ;
; xn ) ;
).
) est appelé le vide. On le note aussi j 0i. L’espace H
s’identi…e au sous-espace fermé de
formé des vecteurs dont toutes les composantes sont
nulles sauf la n-ième. L’espace de Fock est muni du produit scalaire
hf; gi =
1 Z
X
fn (x1 ; x2 ;
n
; xn ) gn (x1 ; x2 ;
n=0
81
; xn ) dx1 dx2
dxn .
L’espace
est un espace de Hilbert pour la norme k f k=
scalaire.
p
hf; f i induite par le produit
Pour h 2 H, on dé…nit le vécteur exponentiel par
(h) =
En utilisant le produit scalaire de H
n
X 1
p h
n!
n
n
.
on a
h (f ) ; (g)i = ehf;gi .
Preuve.
X 1
X 1
n
n
p f ;
p g i,
h (f ) ; (g)i = h
n!
n!
n
n
X1
n
n
hf ; g i,
=
n!
n
X1
hf; gihf; gi
hf; gi,
=
n!
n
X1
hf; gin ,
=
n!
n
X hf; gin
=
,
n!
n
= ehf;gi
82
Chapitre 3
Représentation probabiliste de la
solution de l’équation de
Schrödinger
Dans ce modeste mémoire de magister, on va se contenter de donner une représentation probabiliste à la solution de l’équation de Schrödinger 1 dans un cas particulier
mais important pour l’homogénéisation périodique, voir 3.11, nous allons aussi nous restreindre à la dimension un. Nous allons nous inspirer de la situation similaire d’une
équation parabolique classique, i.e. sans nombres complexes. Pour cela, commençons par
donner quelques resultats sur les propriétés de l’opérateur d’impultion p^.
3.1
Propriétés approfondies de l’opérateur d’impulsion
Rappelons que l’opérateur d’impulsion, voir 1.3, s’exprime par
p^ =
i~@,
83
véri…ons rapidement que p^ est un opérateur linéaire auto-adjoint. Soient u1 , u2 deux
fonctions arbitraires,
Z
hu1 ; p^u2 i =
=
+1
u1 (x) p^u2 (x) dx,
1
ih
Z
+1
u1 (x) @u2 (x) dx,
Z +1
+1
u2 (x) @u1 (x) dx,
= [ ihu1 (x) u2 (x)] 1 + ih
1
Z +1
u2 (x) ( ih) @u1 (x) dx,
=
1
Z +1
=
p^u1 (x) u2 (x) dx,
1
Z +1
=
p^u1 (x)u2 (x) dx ,
1
1
= h^
pu1 ; u2 i.
(puisque u1 ( 1) = u2 ( 1) = 0)
Remarque 3.1.1 On voit d’autre part que @ sans i est un opérateur linéaire mais non
auto-adjoint, puisque
Z
+1
u1 @u2 dx =
1
Z
6=
3.1.1
Z
+1
u2 @u1 dx,
1
+1
u2 @u1 dx.
1
Spectre de l’opérateur p^
On a déjà vu que le spectre de p^ était continu et il ne peut être indexé par un
ensemble dénombrable ; c’est pourquoi on notera f
L
(x)g ses vecteurs propres où L
décrit un intervalle ou une réunion d’intervalles. Supposons que
propre de p^ correspond à la valeur propre
L
84
L
(x) soit le vecteur
(on prendra pour simpli…er l’exposition,
~ = 1), on a
p^
Si
L
(x),
L0
L
(x) =
L
L
(x) .
(3.1)
(x) sont deux vecteurs propres de p^ correspondants à des valeurs propres
di¤érentes
L , L0 , alors elles sont orthogonales au sens de Dirac. En e¤et, si en note
R L+ L
L et
L (x) = L
L (x) dL (appelée di¤érentielle propre) et si les intervalles
R
L0 sont disjoints alors
L0 (x)
L (x) dx = 0. Cette formule se traduit aisément
R
à la limite grâce au symbole de Dirac , on a alors voir [6] p. 95,
L0 (x)
L (x) dx =
(L
L0 ). Etant donné que ces vecteurs forment un système orthogonal et complet ou
total voir 2.3.1, alors nous pouvons représenter une fonction 2 L2 (R) sous la forme de
R
R
la superposition : (x) = c (L) L (x) dL, où c (L) =
(x) dx.
L (x)
Il est facile de résoudre l’équation 3.1, voir [6] page 103, on a
où N est un nombre constant ; on prend la normalisation
3.1.2
p
L
(x) = N exp (i
(x) = (2 )
1=2
L x),
exp (ipx).
Action de l’opérateur exp (it^
p) sur des fonctions
Voyons comment exp (it^
p), qui est bien dé…ni voir la remarque 2.3.4, agit sur
L
(x).
On a le
Lemme 3.1.1 On a [exp (it^
p) ] (x) =
(t + x).
Preuve. En e¤et, on a
d
exp (it^
p)
dt
L
(x) = i exp (it^
p) p^
= i
L
exp (it^
p)
(x) ,
L
L
(x) ,
et alors par une intégration élémentaire
exp (it^
p)
L
(x) = CL exp (i
L t) ,
où CL est une constante qu’on va déterminer par la condition initiale, exp (i0^
p)
L
(x), donc CL =
L
(x). Soit alors un
L
(x) =
arbitraire, on a par la linéairté de notre
85
opérateur exponentiel
Z
[exp (it^
p) ] (x) = exp (it^
p)
c (L) L (x) dL ,
Z
=
c (L) exp (it^
p) L (x) dL,
Z
=
c (L) exp (i L t) L (x) dL,
Z
=
c (p) exp (ipt) p (x) dp,
Z
=
c (p) exp (ipt) (2 ) 1=2 exp (ipx) dp,
Z
Z
1=2
= (2 )
exp (ipt)
(2 ) 1=2 exp ( ipy) (y) dy exp (ipx) dp,
Z
=
exp (ipt) [u (p)] exp (ipx) dp, où u (p) = F (y)
Z
=
exp [ip (t + x)] u (p) dp,
=
(t + x) ,
où F est la transformation de Fourier , voir 2.1. Donc
[exp (it^
p) ] (x) =
3.2
(t + x) .
(3.2)
Représentation probabiliste de la solution d’équations integrodi¤érentielles paraboliques classiques
3.2.1
EDP di¤érentielle
Quoique l’équation 3.15 qui concerne un poissonien, a la même forme que dans le
cas continu, elle est plus compliquée, commme nous allons le voir maintenant. Il est
bien connu que le mouvement brownien est un outil très utile pour étudier la solution
86
probabiliste de l’équation de la chaleur avec donnée initiale de Cauchy (u (0; x) = f (x))
on a
@t u (t; x) = (1=2) @x2 u (t; x) .
(3.3)
On sait par le cours d’analyse (voir par exemple Piskounov tome II [26]) que
u(t; x) =
Z
p
1= 2 t exp( (y
x)2 =2t)f (y)dy;
(3.4)
R
i.e. une convolution de f avec le noyau de la chaleur voir 2.2. En utilisant le mouvement
brownien (Bt ), on peut aussi écrire par le théorème 2.1.1
u(t; x) = E x f (Bt ):
Avec en plus un terme de potentiel
(3.5)
V , i.e. au second membre on a A = (1=2) @x2
V,
on a par la formule de Feynmann-kac que, voir [29],
u(t; x) = E
x
f (Bt ) exp(
Z
t
V (Bs )ds) .
0
Avant de passer au discret, et pour bien faciliter notre étude, nous allons voir un cas très
simple. Ensuite, on généralisera au fûr et à mesure.
3.2.2
EDP intégrale
Processus de Poisson standard
Le processus de Poisson (Nt )t
0
d’intensité , qui part de g à l’instant 0, à été introduit
au chap 2. Nous en avons donné di¤érentes caractérisations. Le seul saut possible est k de
poids
0
i.e.
(dp) =
0 k
(dp), où
(dp) est une mesure positive tq
une mesure de Dirac. Comme nous l’avons vu au Chapitre 2, (Nt )t
(R) < 1 et
0
est
est de Markov car
c’est un processus à accroissements indépendants. Il satisfait l’équation de Fokker-Planck
87
suivante, rappelons que A son générateur est donné par
Z
Au (t; g) =
ZR
=
[u (t; g + p)
u (t; g)] (dp) ,
[u (t; g + p)
u (t; g)]
[u (t; g + k)
u (t; g)] ,
0 k
(dp) ,
R
=
0
(g 2 R) et donc l’équivalent de l’équation 3.3 est donné par
@t u (t; g) = Au (t; g) ,
=
0
(3.6)
[u (t; g + k)
u (t; g)] ,
avec la condition initiale u (0; g) = f (g). La solution de l’équation 3.6 est inspirée de
l’équation 3.5 et on remplacera le processus brownien Bt par le processus poissonien Nt .
On montre que sa solution est donnée par
u (t; g) = E g f (Nt ) ,
(3.7)
u (0; g) = f (g) .
En e¤et, on suppose que u admet une transformation de Fourier u~
u~ (t; x) = Fu (t; g) = (1=2 )
Z
exp ( igx) u (t; g) dg
R
x 2 R,
alors on a
@t u~ (t; x) = (1=2 )
= (1=2 )
Z
ZR
exp ( igx) @t u (t; g) dg;
exp ( igx)
0
[u (t; g + k)
R
=
0
(exp (ikx)
1) u~ (t; x) ;
88
u (t; g)] dg;
il est clair que la solution de cette équation est
u~ (t; x) = exp
0t
= exp t
Z
eixk
eixp
f~ (x) ,
1
(dp) f~ (x) ,
1
R
où f~ est la transformation de Fourier de f , cette solution est donnée comme en théorème
2.1.6, par
u~ (t; x) = E [exp (ixNt )] f~ (x) ,
Z
=
exp (ixp) f~ (x) PNt (dp) ,
Z
ZR
exp (ixp) (1=2 ) exp ( i (g + p) x) f (g + p) dg PNt (dp) ,
=
R
ZR
Z
= (1=2 ) exp ( igx) f (g + p) PNt (dp) dg,
R
R
où PNt (dp) la loi de Nt , est donnée par la dé…nition 2.1.14, et alors
u (t; g) =
Z
R
=
=
f (g + p) PNt d (p) ,
1
X
n=0
1
X
f (g + nk) P (Nt = g + nk) ,
(
f (g + nk) e
0t
= e
1
X
(
f (g + nk)
n=0
89
n
,
n!
n=0
0t
0 t)
0 t)
n!
n
.
Processus de Poisson à deux côtés
Comme indiqué plus haut. On doit sauter en temps direct non seulement vers le haut,
mais aussi vers le bas. Les deux seuls sauts possibles sont donc
ce cas
(dp) =
+ k
(dp) +
k
(dp) avec
+
=
=
0 =2,
k, +k ; on prend dans
et donc le générateur A est
donné par
Z
[u (t; g + p) u (t; g)] d (p) ,
Z
= ( 0 =2) [u (t; g + p) u (t; g)] [(
Au (t; g) =
R
k
+
k ) (dp)] ,
R
= ( 0 =2) [u (t; g + k) + u (t; g
k)
2u (t; g)] .
On va d’abord partir de g à l’instant 0, alors la solution comme en 3.7 est donnée par
u (t; g) = E g f (Nt ) ,
Z
=
f (g + p) PNt (dp) ,
=
R
l=1
X
f (g + lk) P (Nt = g + lk) ,
l= 1
puisque la situation est symétrique, i.e. P (Nt = g
u (t; g) = f (g) P (Nt = g) +
1
X
lk) = P (Nt = g + lk), donc
[f (g + lk) + f (g
lk)] P (Nt = g + lk) .
l=1
Voir …gure 3.8 plus bas où la direction horizontale correspond à l et la direction verticale
à n et où le premier terme correspond à la verticale l = 0. Calculons P (Nt = g + lk) pour
l
0. Décomposons cette probabilité suivant le nombre total de sauts dans l’intervalle
[0; t] qu’on notera n. On remarque que pour tout n
90
0 la quantité
P (N ([0; t]
R) = n) = exp (
( 0 t)n
0 t)
n!
est non nulle (la probabilité qu’il n’y ait pas de sauts avant t est égale à exp (
0 t))
donc
on peut diviser par cette quantité et utiliser des probabilités conditionnelles. Notons
au passage aussi que l’événement qu’il n’y ait jamais de sauts est négligeable ; en e¤et,
exp (
0 t)
tend vers zéro à l’in…ni. Pour arriver à g + lk on doit au moins sauter l fois,
i.e. notre somme plus bas part en fait de n
l. Calculons la loi conjointe, pour tout l
0
on a
P (Nt = g + lk) =
1
X
n=0
=
=
1
X
n=l
1
X
P (Nt = g + lk; N ([0; t]
R) = n) ,
P (Nt = g + lk; N ([0; t]
R) = n) ,
P [Nt = g + lkjN ([0; t]
R) = n]
P (N ([0; t]
R) = n) .
n=l
Il est clair qu’on peut aussi, en partant g, sauter plus de l fois quand il y a compensation
de j sauts positifs et j sauts négatifs. On écrit donc
Nt = l + 2j;
Il est facile de voir que l’ensemble des valeurs possibles de Nt étant donné N ([0; t]
n, est
R) =
nk; ( n + 2) k; :::; nk. Si n est impaire alors Nt ne s’annule jamais en ne prenant
que des valeurs impaires. Si n est paire alors Nt peut s’annule en ne prenant que des
valeurs paires. Dans les deux cas on fait des sauts de 2. On a alors besoin du résultat
fondamental suivant
Lemma 11 Sachant que N ([0; t]
R) = n, la loi de Nt est binômiale.
91
On somme sur n variables aléatoires indépendantes et identiquement distribuées avant
les deux valeurs
k. Procédons par récurrence. Si on a un seul saut, il est clair qu’on
part vers le haut avec la même probabilité que vers le bas, i.e. 1=2. Comme les sauts
sont indépendants, le suivant, si on suppose qu’il y en a seulement deux, aura le même
comportement que le précédent, i.e. encore 1=2. Et ainsi de suite. Donc, Nt = g + 1k
sachant N ([0; t]
R) = n est distribué selon, par la loi binômiale. On a
P [Nt = g + lkjN ([0; t]
R) = n] = Cnl 2
n
:
Le résultat bien connu suivant nous permet d’avoir des écritures symétriques pour les
combinaisons en donnant un sens à des Cn l .
Lemme 3.2.1 Soit n
0 et l 2 Z on a
Cnl =
n+l
2
n!
.
! n2 l !
En reportant ces quantités plus haut on a pour le premier terme
P (Nt = g) =
1
X
2j
2j ( 0 t)
2
(2j)!
j=0
!
exp (
0 t) :
Par conséquent
u (t; g) = f (g) P (Nt = g) + exp (
0 t)
1
X
[f (g + lk) + f (g
l=1
lk)]
1
X
n=l
n
l
n ( 0 t)
Cn 2
n!
!
:
En inversant l’ordre de la sommation, ce qui est permis puisque les nombres concernés
sont positifs pour f
0 (connu en mathématiques sous le nom du théorème de Fubini)
on a par le lemme 3.2.1
92
(3.8)
"n
l!
on a
u (t; x) = f (g) P (Nt = g) + 2 exp (
= f (g) P (Nt = g) + exp (
0 t)
0 t)
1
X
n=1
1
X
n=1
= e
0t
1
X
n=0
3.3
0t
2
n
1
n!
n
X
n
0t
2
0t
n
2
!
1
n!
1
n!
n
X
!
f (g + lk) Cnl ,
l=1
n
X
!
f (g + lk) Cnl ,
l= n
f (g + lk) Cnl .
l= n
Représentation en p de l’équation de Schrödinger
Rappelons qu’on suit les articles [14] et [15] où les manipulations suivantes ne sont
pas explicitées ; peut être sont-elles établies ailleurs. On se placera dans R et on prendra
dans l’équation 1, pour simpli…er l’exposition, ~ = 1, on a
i@t (t; x) =
(1=2m) @x2 (t; x) + V (x) (t; x),
(3.9)
(0; x) = f (x) ,
où V est un terme de potentiel périodique que nous préciserons plus bas. Notons que
la solution analytique de cette équation est donnée dans Blokhintsev [6] page 230 où il
est question de potentiels périodiques plus généraux. Dans ce livre on passe d’abord à la
93
représentation en p. Notre choix de potentiel est en fait un cas particulier de potentiels
plus généraux de la forme
V (x) =
Z
exp (ipx) f (p) (dp) ,
(3.10)
R
où f (p) est une fonction complexe mesurable et bornée. Cette classe de potentiel se
prête bien à une interprétation probabiliste. Pour une représentation probabiliste de
l’équation 3.9 il est commode de prendre
(f0g) = 0. Cette conditiont n’est pas du tout
restrictive parce que on peut s’assurer de sa validité en procédant à une translation par
une constante appropriée. Le potentiel dans 3.9 que nous étudions correspond à f (p) = 1
et
(dp) =
0
2
directe donne
(
k
+
k ) (dp),
V (x) =
où les
0
sont des mesure de Dirac, et donc une intégration
exp (ikx) + exp ( ikx)
=
2
0
cos kx.
Remplaçons V (x) par cette valeur dans 3.9, alors on a
@t (t; x) = (i=2m) @x2 (t; x)
i
0
cos (kx) (t; x):
(3.11)
Nous allons nous inspirer de Blokhintsev et donc on passe d’abord à la représentation
en impulsion p dont l’opérateur associé est p^ =
i@, voir 1.3. Nous devons réécrire
l’opérateur, voir 1.8, au second membre de 1 dans la représentation en impulsion. Cela
correspond à la transformation de Fourier suivante
u (t; g) = F
(t; x) = (1=2 )
Z
R
donc en dérivant sous le signe somme on a
94
exp ( igx)
(t; x) dx,
@t u (t; g) = (1=2 )
= (1=2 )
Z
exp ( igx) @t (t; x) dx;
ZR
exp ( igx) (i=2m) @x2 (t; x)
i
0
cos (kx) (t; x) dx;
R
on utilise une intégration par partie, on a
Z
igx) @x2
exp (
(t; x)dx = ig
Z
exp ( igx) @x (t; x)dx,
RZ
R
g2
=
exp ( igx) (t; x)dx,
R
donc
(1=2 ) exp ( igx) @x2 (t; x)dx
R Z
(i=2m) g 2 (1=2 ) exp ( igx) (t; x)dx,
(i=2m)
=
Z
R
=
i g 2 =2m u (t; g) .
D’autre par
Z
exp ( igx) cos (kx)
(t; x) dx
R
=
=
Z
ZR
R
exp (ikx) + exp ( ikx)
(t; x) dx;
2
exp ( ix) (g + k) + exp ( ix) (g k)
(t; x) dx;
2
exp ( igx)
d’où
95
(1=2 )
Z
exp ( igx)
0
cos (kx)
(t; x) dx
R
Z
exp ( ix) (g + k) + exp ( ix) (g
2
R
= (1=2) [u (t; g + k) + u (t; g k)] ,
= (1=2 )
k)
(t; x) dx;
et donc en…n
i g 2 =2m u (t; g)
@t u (t; g) =
i
0
2
k)] .
[u (t; g + k) + u (t; g
Réécrivons le 2 ème terme du second membre. On a le
Lemme 3.3.1 On a
V
i
@
@g
u (t; g) = ( 0 =2) [u (t; g + k) + u (t; g
k)] ,
où le terme du premier membre de cette égalité est une fonction d’opérateur.
Par l’équation 3.2 on a
exp (ik p^) u (t; g) = u (t; g + k) ;
exp ( ik p^) u (t; g) = u (t; g
k)
et alors
V
i
@
@g
u (t; g) = ( 0 =2) [exp (ik p^) + exp ( ik p^)] u (g) ,
= ( 0 =2) [u (t; g + k) + u (t; g
k)] .
Nous avons donc trouvé que
2
^ = g +V
H
2m
96
i
@
@g
:
(3.12)
Et donc
@t u (t; g) =
i g 2 =2m u (t; g)
iV
i
@
@g
u (t; g) .
Notons que
( 0 =2) [u (t; g + k) + u (t; g
k)]
= ( 0 =2) [u (t; g + k) + u (t; g
k)
2u (g)] +
0 u (t; g) ,
0 u (t; g) ,
= Au (t; g) +
où Au (t; g) = ( 0 =2) [u (t; g + k) + u (t; g
k)
2u (t; g)].
On reconnait ici le générateur d’un processus de Poisson à deux côtés, voir la dé…nition
2.3.23, ayant la mesure de Lévy d (p) ; c’est un constat fondamental. Donc …nalement
on a
i@t u (t; g) =
^ (t; g) ;
Hu
(3.13)
g 2 =2m +
= Au (t; g) +
0
u (t; g) :
(3.14)
Pour donner une représentation probabiliste à la solution cette équation 3.13, le complexe
i exigera une grande attention. Nous allons nous inspirer des représentations probabilistes
pour les EDP paraboliques classiques qui sera donné dans la section précédente. On écrit
la solution probabiliste de l’équation 3.13 d’abord sans le complexe i dans le cas sans
potentiel (i.e.sans [(g 2 =2m) + 0 ]), On a donc sans complexe et dans le classique
u (t; g) = E g f (Nt ).
voir 3.7. On devra traiter la situation liée au terme [(g 2 =2m) + 0 ] u (t; g), on a
u (t; g) = E
g
f (Nt ) exp
Z
0
97
t
g 2 =2m +
0
ds .
(3.15)
Toute la di¢ culté est de voir comment cette formule fondamentale va changer avec l’intervention des complexes, nous serons donc potentiellement en temps imaginaire.
3.4
Représentation probabiliste de la solution de l’équation de Schrödinger
Notons d’abord que si m ! 1 dans l’équation 3.13 alors on retrouve l’équivalent de
l’équation de Schrödinger 3.9 sans terme de potentiel, i.e. une EDP parabolique en temps
imaginaire. Ainsi le Processus de Poisson joue un rôle dual au le mouvement brownien.
Pour passer de la solution l’équation de Fokker-Planck 3.15 à la solution de l’équation
de Schrödinger on utilise successivement deux fonctionnelles additives, voir 2.1.7, de
processus de sauts. Il est fondamental de remarquer qu’il ne su¢ t pas de calquer texto
la situation classique.
3.4.1
Traitement de la première fonctionnelle additive
En e¤et, notre première fonctionnelle additive, mesurable par rapport à - algèbre
cylindrique G, voir la dé…nition 2.1.12, continue dans la topologie C (R) et bornée en
probabilité, donnée par
1
S1 (Nt ) =
2m
1
=
2m
Z
t
N2
i
d ;
0
s
Z
t
N 2d
i
0
(t
s) :
s
Elle donnera par 2.7, la fonction
u (t; g) = E g exp (iS1 (Nt )) f (Nt ) ,
qui est seulement une solution de l’équation
98
@u (t; g)
= 0 [u (t; g + k) + u (t; g
@t
2
i 2
g u (t; g) ,
2m
k)]
(3.16)
où lim u (t; g) = f (g), sans complexe attaché au premier membre.
t !0
3.4.2
Traitement de la deuxième fonctionnelle additive
C’est pourquoi nous avons besoin d’une deuxième fonctionnelle additive, G-mesurable,
discontinue, et bornée en probabilité, donnée par
S2 (Nt ) =
où, rappelons le N ([s; t]
2
N ([s; t]
R) ,
R) est le nombre de sauts du processus de Poisson sur l’inter-
valle [s; t]. Cette transformation absolument continue de la mesure de probabilité d’un
processus de poisson dé…nit la transformation
0
!
i
0
dans 3.16 qui est similaire à
une rotation de temps euclidienne dans le cas des processus de di¤usion.
Remarque 3.4.1 La théorie classique des fonctions additives est très bien étudiée dans le
cas continu et les processus de Markov correspondant sont bien dé…nis. Mais les fonctions
additives discontinues posent de gros soucis dans la théorie classique markovienne.
Comme nous l’avons déjà dit, la discontinuité de S2 pose des problèmes. Cependant,
nous pouvons procéder à des calculs directs sur u (t; g) = E g exp (iS2 (Nt )) f (Nt ). En
99
e¤et par le théorème 2.1.1 pour X = (N (t); N (t)) on a
u (t; g) =
+1
X
l= 1
=
+1
X
exp (i N ([s; t]
in f (g + lk)
=
n
i P (N ([0; t]
R) = n)
n=0
=
+1
X
R) = n] P (N ([0; t]
R) = n) ,
f (g + lk) P [Nt = g + lkjN ([0; t]
R) = n] ,
P [Nt = g + lkjN ([0; t]
n=0
l= 1
+1
X
1
X
R) =2) f (g + lk) P (Nt = g + lk) ,
+n
X
l= n
( 0 t)n X
[f (g
t)
0
n! l=1
+n
n
i 2
n
exp (
n=0
lk) + f (g + lk)] Cnl ,
puisque exp (in =2) = [exp (i =2)]n = in , et alors
u (t; g) =
+1
X
n=0
(i 0 t=2)n X
f (g + lk) Cnl .
0 t)
n!
l= n
+n
exp (
Par conséquent, si nous reprenons les calculs précédents avec la fonction E g eiS(Nt ) f (Nt )
où S (Nt ) = S1 (Nt ) + S2 (Nt ) on trouve que cette fonction satisfait l’équation 3.13. Cette
équation ainsi obtenue est l’équation de Schrödinger avec le potentiel oscillatoire V (x) =
0
cos kx qui est dans la représentation en impulsion, une superposition d’opérateurs de
déplacement, en Anglais shift operator, voir le lemme 3.3.1.
3.5
D’autres représentations
Il existe d’autres travaux de recherche dans lesquels on donne des représentations
probabilistes à l’équation de Schrödinger. Nous devons d’abord citer des variantes de
l’utilisation des processus de Poisson. Dans ces travaux, les auteurs assimilent les sauts
à des interactions en énergie, voir [3], [24].
Cependant, il existe aussi des représentations à base de processus de di¤usion continues dues à Nagasawa [19]. Ce dernier utilise de manière systématique le retournement
du temps et construit d’étranges di¤usions qui sont en même temps progressives et ré100
trogrades, i.e. "sentent" le futur. C’est cet aspect non classique qui permet de traiter
l’équation de Schrödinger. De manière générale, le retournement du temps permet aussi
de donner des représentations probabilistes à des EDP du type hyperboliques qui sont
potentiellement dans la classe des équations de Schrödinger, voir [8]. Pour des EDP complexes plus générales que l’équation de Schrödinger voir [13].
101
Bibliographie
[1] M. Abd-lefdil, Mécanique quantique, Chapitre 1 : Bases de la mécanique quantique,
Université Mohammed V- Agdal (2007).
[2] A. Benchérif et E. Pardoux, Homogenization of a di¤usion with locally periodic
coe¢ cients, Lecturs Notes in Mathematics 1857, 363-392, Springer verlag (2004).
[3] J. Bertrand, B. Gaveau et G. Rideau, Poisson processes and quantum …elds theory :
a model, dans quantum probability and application, Lecturs Notes in Mathematics
1136, 74-80, Springer verlag (1985).
[4] M. J. Blanc et T. Simon, Eléments de calcul stochastique (2005).
[5] Ph. Blanchard, Ph. Combe, W. Zeng, Mathematical and physical aspects of stochastic mechanics, Lecture Notes in Physics 281, Springer verlag (1987).
[6] D. Blokhintsev, Principes de mécanique quantique, Mir Moscou (1981).
[7] C. Dellacherie et P. A. Meyer, Probabilités et potentiel, vol. 3.
[8] Robert. C. Dalang, C. Mueller et R. Tribe, A FeynmanKac–Type formula for the
deterministic and stochastic wave equations and other PDE’s, 4681-4703, Trans.
AMS (2008).
[9] D. Fortier, Mécanique quantique, Animations et interprétations philosophiques
(2007).
[10] J. P. Fouque, Relations entre probabilités et équations aux dérivées partielles.
[11] Stanley P. Gudder, Stochastic methods in quantum mechanics, New York.
102
[12] W. Heisenberg, La partie et le tout, Albin Michel (1972).
[13] T. Ichinose, Path integral for a hyperbolic system of the …rst order, Duke Math. J.
51, 1-36 (1984).
[14] V. N. Kolokoltsov, A new path integral representation for the solutions of the Schrödinger, heat and stochastic Schrödinger equation, 353-370 (1999).
[15] A. A. Konstantinov, V. P. Maslov et A. M. Chebotarev, Probability representations
of solutions of the Cauchy problem for quantum mechanical equations, 1-26.
[16] P. Labastie, La physique fondamentale, mécanique quantique, (2010).
[17] C. Longuemare, Limites classiques de la mécanique quantique, séminaire d’analyse,
université de Caen, (2007).
[18] V. P. Maslov et A. M. Chebotarev, The de…nition of Feynman’s functional integral
in the p-representation, 975-976 (1976).
[19] M. Nagasawa, Stochastic processes in quantum physics, Birkhauser Verlag (2000).
[20] I. Nechita, Thèse de doctorat, Etats aléatoires, théorie quantique de l’information
et probabilités libres, université Claude Bernard Lyon1 (2009).
[21] D. Nualart, The Malliavin calculus and related Topics. Springer-verlag (1995).
[22] D. Nualart et J. Vives, Anticipative calculus for the Poisson process based on the
Fock space, Séminaire de probabilités (Strasbpourg), tome 24, 154-165 (1990).
[23] F. Paulin, Compléments de théorie spectrale et d’analyse harmonique, Département
de mathématiques d’Orsay, (2012-2013).
[24] P. Pereyra et R. Quezada, Probabilistic representation formulas for the time evolution of quantum systems, J. Math. Phys. 34 (1), 59-68 (1993).
[25] A. Piatnitsky, G. Allaire, Homogenization of the Schrödinger equation and e¤ective
mass theorems, Com. Math. phys. 258, 1-22 (2005).
[26] N. Piskounov, Calcul di¤érentiel et intégral, Mir Moscou.
[27] R. Rémi, Processus de Lévy et calcul stochastique, (2010).
103
[28] P. Ruelle, Physique théorique et mathématique, Marches aléatoires, (2005-2006).
[29] D. Williams, Markov processes and Martingales, vol 1 : Foundations, New York
(1979).
[30] H. Zwirn, Mécanique quantique et connaissance du réel, Académie des sciences morales et politiques.
104
8 9 :5 '
$ ," =
.3 45) + 6
> *? ?
E6
! " # $ %& '
/ - (* / 0' 1,!) ( ) * + , # :5 ' @A ,
;
; 3! "/
.B ' 0' C
/ - E ," =
> *?
? E@;
; :
Résumé
Dans ce mémoire on donne une représentation probabiliste à la solution d’une
équation de Schrödinger dans R avec un potentiel périodique . On utilise une
transformation absolument continue mais complexe de la mesure (sur l’espace des
trajectoires) d’un processus de Poisson à deux sauts. On donne aussi au chapitre 1
une introduction à la mécanique quantique et au chapitre 2 une contrepartie non
commutative abstraite. Une exposition d’un espace de Fock Poissonien est aussi
considérée.
Mots-clés: mécanique quantique, équation de Schrödinger, probabilité
commutative, processus de Poisson.
non
Abstract
In this thesis a probabilistic representation for the solution of a Schrödinger equation
with periodic potential is given. We use an absolutely continus transformation of the law
(on the space of trajectories ) of a Poissonian processes with 2 equal jumps of
opposite values. For completeness, we also give in chapter 1 an introduction to
quantum mechanics and in chapter 2 an abstract non commutative counterpart. An
exposition of a Poissonian Fock space is also considered.
Key-words: quantum mechanic,
probability, Poissonian processes.
Schrödinger
equation,
non
commutative
Téléchargement