وزارة التعليم العالي و البحث العلمي - Université Ferhat Abbas

publicité
REPUBLIQUE ALGERIENNE DEMOCRATIQUE ET POPULAIRE
MINISTERE DE L’ENSEIGNEMENT SUPERIEUR ET DE LA RECHERCHE
SCIENTIFIQUE.
UNIVERSITE FERHAT ABBAS-SETIF-1.
MEMOIRE
Présenté à la Faculté des Sciences
Département de Mathématiques
Pour l’obtention du diplôme de
MAGISTER
OPTION : Mathématiques Fondamentales
Par
Melle : SOUALAH Sabira Imène
THEME
PROBABILITES NON COMMUTATIVES
ET CALCUL DE MALLIAVIN.
Soutenu le : 20/10/2013
Devant le jury :
Président
Encadreur
Examinateur
Pr. ZIADI Abdelkader
Pr. BENCHERIF MADANI Abdelatif
Pr. MANSOURI Abdelaziz
Université de Sétif.
Université de Sétif.
Université de Sétif.
Remerciements
En premier lieu, J'exprime mes profonds remerciements à mon
encadreur, monsieur BENCHERIF-MADANI Abdelatif pour m’avoir
proposé ce sujet et pour toutes les heures qu'il a consacrées pour me
donner la saveur d’étudier les Mathématiques. J'aimerais également lui
dire à quel point j’ai apprécié sa grande disponibilité, sa patience, ses
multiples conseils et je n'aurais jamais pu réaliser ce travail sans son
soutien et je lui remercie pour son précieux encouragement tout au long
de ce travail.
Je tiens à remercier monsieur ZIADI Abdelkader pour avoir accepté
d’être le président du jury et monsieur MANSOURI Abdelaziz pour avoir
accepté d’examiner mon mémoire, pour l’avoir lue avec attention, et leurs
commentaires qui ont permis d’améliorer la précision et la présentation
de ce mémoire.
Je remercie mes enseignants du primaire, moyen, lycée et d’université.
Ma mère, sa présence et ses encouragements sont pour moi les piliers
fondateurs de ce que je suis et de ce que je fais…. Mon père.
Ma famille et mes amies, un grand merci du fond du cœur, grâce à leur
soutien moral, sans oublier mon frère KHALIL.
Mes remerciements les plus sincères à toutes personnes qui auront
contribué de près ou de loin à l’élaboration de ce mémoire.
I.S. SOUALAH
Je dédie ce modeste mémoire à ma mère.
Table des matières
Introduction
4
1 PROBABILITÉS CLASSIQUES
6
1.1 Processus Stochastique . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.1
6
Critère de continuité de Kolmogorov . . . . . . . . . . . . . . . .
7
1.2 Espérance conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . .
7
1.2.1
Propriétés de l’espérance conditionnelle . . . . . . . . . . . . . . .
1.2.2
Interprétation de l’espérance conditionnelle dans le cas des v.a. de
8
carré intégrable . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9
1.3 Filtration et processus adapté à une …ltration . . . . . . . . . . . . . . .
9
1.4 Semi-groupe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10
1.5 Processus de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10
1.6 Relation entre les semi-groupes et le processus de Markov . . . . . . . . .
12
1.7 Martingale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12
1.8 Étude du mouvement brownien . . . . . . . . . . . . . . . . . . . . . . .
13
1.8.1
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13
1.8.2
Mouvement brownien standard réel . . . . . . . . . . . . . . . . .
15
1.8.3
Quelques propriétés importantes du mouvement brownien . . . . .
15
1.8.4
Construction du mouvement brownien . . . . . . . . . . . . . . .
16
1.8.5
Le mouvement brownien comme un processus gaussien . . . . . .
19
1.8.6
Le mouvement brownien comme limite d’une marche aléatoire . .
21
1
1.8.7
Le mouvement brownien comme processus de Markov . . . . . . .
24
1.8.8
Le mouvement brownien comme une martingale . . . . . . . . . .
25
1.9 L’intégrale stochastique d’Itô . . . . . . . . . . . . . . . . . . . . . . . .
26
1.9.1
Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
28
1.9.2
Formule d’Itô dans R . . . . . . . . . . . . . . . . . . . . . . . . .
30
1.9.3
Théorème d’Itô . . . . . . . . . . . . . . . . . . . . . . . . . . . .
30
1.10 Les EDS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
30
1.11 Martingales normales . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
31
1.11.1 Intégrale stochatique . . . . . . . . . . . . . . . . . . . . . . . . .
31
2 MÉCANIQUE QUANTIQUE ET PROBABILITÉS NON COMMUTATIVES
34
2.1 MÉCANIQUE QUANTIQUE . . . . . . . . . . . . . . . . . . . . . . . .
34
2.1.1
Historique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
36
2.1.2
Le rayonnement du corps noir . . . . . . . . . . . . . . . . . . . .
37
2.1.3
Constante de Planck . . . . . . . . . . . . . . . . . . . . . . . . .
38
2.1.4
L’e¤et photoélectrique . . . . . . . . . . . . . . . . . . . . . . . .
39
2.1.5
La stabilité des atomes . . . . . . . . . . . . . . . . . . . . . . . .
40
2.1.6
Dualité onde-particule . . . . . . . . . . . . . . . . . . . . . . . .
42
2.1.7
État quantique et observable . . . . . . . . . . . . . . . . . . . . .
48
2.1.8
Formulation mathématique . . . . . . . . . . . . . . . . . . . . . .
51
2.1.9
Principe d’incertitude de Heisenberg . . . . . . . . . . . . . . . .
58
2.1.10 Équation de Schrödinger . . . . . . . . . . . . . . . . . . . . . . .
61
2.2 PROBABILITÉS NON COMMUTATIVES . . . . . . . . . . . . . . . . .
62
2.2.1
Rappels d’analyse fonctionnelle . . . . . . . . . . . . . . . . . . .
63
2.2.2
Espace de Fock . . . . . . . . . . . . . . . . . . . . . . . . . . . .
67
2.2.3
Calcul stochastique non commutatif et formule d’Itô . . . . . . . .
78
2
3 CALCUL DE MALLIAVIN ET ANALYSE SUR L’ESPACE DE WIENER
82
3.1 Introduction et motivation . . . . . . . . . . . . . . . . . . . . . . . . . .
83
3.2 Intégrale stochastique multiple . . . . . . . . . . . . . . . . . . . . . . . .
87
3.2.1
L’analogue de la Formule d’Itô en dimension in…nie . . . . . . . .
90
3.2.2
Vecteurs exponentiels . . . . . . . . . . . . . . . . . . . . . . . . .
92
3.2.3
Polynômes d’Hermite . . . . . . . . . . . . . . . . . . . . . . . . .
94
3.2.4
Exemple de calcul de coe¢ cients : Cadre markovien . . . . . . . .
96
3.2.5
La formule de multiplication . . . . . . . . . . . . . . . . . . . . .
97
3.3 Éléments d’analyse de Wiener . . . . . . . . . . . . . . . . . . . . . . . . 105
3.3.1
Fonctions de Cameron-Martin . . . . . . . . . . . . . . . . . . . . 105
3.3.2
Dérivées et gradient . . . . . . . . . . . . . . . . . . . . . . . . . . 106
3.3.3
L’opérateur de gradient . . . . . . . . . . . . . . . . . . . . . . . . 109
3.3.4
Divergence et intégrale de Skorohod . . . . . . . . . . . . . . . . . 111
3.4 Étude comparative . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
Bibliographie
118
3
Introduction générale
Le but de ce travail est d’exposer le calcul de Malliavin, appelé aussi étude d’espaces gaussiens isonormaux ou aussi calcul des variations stochastique ou en…n calcul
anticipatif, et surtout de le situer parmis d’autres théories apparentées. Ce classement
n’est pas très évident comme en témoigne la littérature. Il est important de noter que
ce calcul a été découvert par Paul Malliavin lorsqu’il a donné une méthode probabiliste
pour démontrer le théorème d’Hörmander. Rappellons que ce dernier, en utilisant des
méthodes d’équations aux dérivées partielles (E.D.P.), a réussi à montrer que la solution
d’une E.D.P. parabolique dégénérée
8
n
n
P
P
>
< @t u (t; x) =
aij (x) @ij2 u (t; x) + bi (x) @i u (t; x) ;
i=1
i;j=1
>
: u (0; x) = f (x) ;
où la matrice aij (x) n’est pas dé…nie positive possédait une densité de transition pt (x; y)
R
c-à-d u (t; x) = f (y) pt (x; y) dy. La dégénérescence n’est pas arbitraire mais a une
certaine forme qu’on appelle condition de Hörmander. Celle-ci s’exprime par le language
des algèbres de Lie. Malliavin a réussi à introduire une notion de dérivation sur le triplet
de Kolmogorov ( ; F; P ). Ce calcul a beaucoup évolué et son origine semble aussi ne
plus avoir une grande importance. De plus, on ne sait vraiment pas trop ce que signi…e
"le calcul de Malliavin" ; pour nous ce calcul est ce qui est dé…ni et étudié dans le livre
de Nualart [19] et qui sera vulgarisé au chapitre 3. Par exemple, on donne une nouvelle
preuve à la formule de Taylor. Celle-ci ne …gure pas dans les manuels utilisés dans les
4
universités algériennes, nous ne savons pas si elle est courante à l’échelle mondiale.
Les démarches sont très analogues à celles couramment utilisées en théorie des probabilités non commutatives. Pourtant ce fait ne semble pas très connu, la raison est que,
peut être, à cause des très nombreux utilisateurs de ce calcul à grands succès on n’a pas
eu besoin de savoir quels traits communs il y avaient. En e¤et, pendant de nombreuses
années ce thème (calcul de Malliavin) a été considéré très théorique mais depuis le début
des années 1990, des applications utiles sont apparues quasiment partout, par exemple
dans la …nance. En 1991, les mathématiciens ont montré comment le calcul de Malliavin
pouvait être utilisé dans le calcul de couverture des portefeuilles de marchés complets.
Nous consacrons le chapitre 2 (en plus du calcul de Malliavin) aux probabilités non commutatives et donnons au chapitre 3 quelques éléments de comparaison. Concernant les
probabilités non commutatives, nous suivons le livre de Parthasarathy [20]. Il est intéressant de noter que ce livre a un point de vue géométrique inspiré par l’école indienne
représentée surtout par le mathématicien Varadarajan qui a beaucoup travaillé sur les
méthodes géométriques en mécanique quantique et qui a eu de nombreux résultats et disciples. Quant au calcul de Malliavin, nous suivons surtout le livre de Meyer, Dellacherie et
Maisonneuve [9] malgré sa présentation abstraite. Ainsi, on exposera des manipulations
très intuitives pour parler des intégrales stochastiques multiples, à la manière de Nualart.
Puis on procédera immédiatement à un contexte abstrait.
Il est très important de noter que l’outil non commutatif est entrain d’envahir la scène
probabiliste classique, ainsi Biane [5] a réussi à montrer qu’une chaîne de Markov pouvait
être regardée comme une équation di¤érentielle stochastique (E.D.S.) non commutative,
voir [20], où l’intégration stochastique met en jeu les opérateurs d’annihilation et création,
voir section (2.2.2). Pour nous faciliter notre comparaison, nous allons, en suivant [9],
exposer ce calcul dans toute sa généralité possible (pour nous) ce qui fera bien mettre en
évidence les traits communs aux deux théories qu’on résumera sous forme d’un tableau.
5
Chapitre 1
PROBABILITÉS CLASSIQUES
1.1
Processus Stochastique
Dé…nition 1 Un processus stochastique est l’évolution au cours du temps d’un phénomène aléatoire qui est donnée par une suite de v.a. fXt gt2T , T représente l’ensemble des
instants t ; ces v.a. sont dé…nies sur un même espace probabilisé est à valeurs dans un
espace mesurable (E; E).
Remarque 1 1)Il est parfois commode de rassembler toutes ces v.a. en une seule v.a.
X dé…nie sur ( ; F; P ) est à valeurs dans un espace fonctionnel E T , c-à-d pour un !
…xé et t variable dans T , X(!; t) est appelée trajectoire du processus, c’est une simple
fonction du temps (sans caractère aléatoire) qui représente la réalisation du processus
sous l’occurence !. Pour un t …xé, X(!; t) est une simple v.a.
2)On prend sur l’espace E T la tribu de Kolmogorov, dé…nie comme étant la plus petite
tribu rendant mesurables les v.a. Xt , pour tout t 2 T .
3)Si T est continu (exemple : T = [0; 1[ ; T = [0; t] tq t 2 R+ ,...), (resp. discret) on
dit que le processus est en temps continu (resp. discret), T peut même être un espace de
Hilbert (temps imaginaire).
Dé…nition 2 Soit fXt gt2T ,
n o
~t
X
t2T
e est une
deux processus aléatoires, on dit que X
6
modi…cation de X si
et = Xt ) = 1:
8t 2 T; P (X
e a la même loi que X au sens suivant :
Remarque 2 Remarquons que le processus X
et1 ; :::; X
etn ) a la même loi que (Xt1 ; :::; Xtn ). En
pour tout choix de t1 ; :::; tn , le vecteur (X
e peuvent avoir un comportement très di¤érent de celles de
revanche, les trajectoires de X
e soient continues alors que celles
X .Il peut arriver par exemple que les trajectoires de X
de X sont toutes discontinues.
1.1.1
Critère de continuité de Kolmogorov
On suppose qu’un processus X = fXt gt2T qui satisfait la condition suivante :
E jXt
Xs j
pour certaines constantes positives ,
e = fX
e t g0
X
t T
s; t
T;
et C. Alors il existe une modi…cation continue
de X, qui est localement Hölderenne d’ordre , pour tout
à-d :
P f!;
sup
0 t s h(!)
s;t2[0;T ]
d’où h(!) est une v.a. p.s. positive et
1.2
sj1+ ; 0
C jt
et (!)
X
jt
es (!)
X
sj
2 0;
c-
g = 1;
> 0.
Espérance conditionnelle
Soit F1 une sous-tribu de F. F1 représente une information partielle sur le hasard.
L’espérance conditionnelle d’une v.a. X par rapport à F1 représente la meilleure estimation que l’on puisse faire de la valeur de X à l’aide de l’information contenue dans
F1 .
Dé…nition 3 Soit X une v.a. telle que E jXj < +1, on appelle espérance conditionnelle de X sachant F1 , et on note E(X=F1 ), toute v.a. satisfaisant les deux conditions
7
suivantes :
1) E(X=F1 ) est F1 -mesurable.
2) Pour tout A 2 F1 on a :
Z
XdP =
A
Z
E(X=F1 )dP:
A
Remarque 3 On a supprimé les ! seulement pour simpli…er l’écriture. Il est important
de noter que l’espérance conditionnelle n’est pas unique mais dé…nie seulement modulo
des ensembles de mesure nulle. En général il n’y a pas de règles générales pour trouver E(X=F1 ) une fois X donnée. Cependant, l’idée est de prendre une moyenne des
moyennes.
1.2.1
Propriétés de l’espérance conditionnelle
Soient X et Y deux v.a. intégrables et soit F1
F on a :
1) E(aX + Y =F1 ) = aE(X=F1 ) + E(Y =F1 ).
2) Si X
Y alors E(X=F1 )
E(Y =F1 ).
3) E(E(X=F1 )) = E(X) (on prend A =
dans la dé…nition).
4) Si X est indépendante de F1 on a E(X=F1 ) = E(X), c-à-d qu’en l’absence de toute
information sur X, la meilleure estimation que l’on puisse faire sur X est son espérance.
5) Si X est F1 -mesurable alors E(X=F1 ) = X. Cela traduit le fait que F1 contient
déja toute information sur X.
6) Si X est F1 -mesurable et E(jXY j) < +1, alors E(XY =F1 ) = XE(Y =F1 ).
7) Si F1
F2
F, alors E(E(X=F2 )=F1 ) = E(X=F1 ).
8) Contraction dans Lp , pour p
9) Convergence monotone : Si Xn
1, si X 2 Lp : E[jE(X=F1 )jp ]
E jXjp .
0 est une suite croissante vers X avec X inté-
grable, alors E(Xn =F1 ) % E(X=F1 ).
10) Inégalité de Jensen : si ' est convexe et E j'(X)j < +1, alors '(E(X=F1 ))
E('(X)=F1 ).
8
1.2.2
Interprétation de l’espérance conditionnelle dans le cas
des v.a. de carré intégrable
On interprète l’espérance conditionnelle d’une v.a. X 2 L2 (F; P ) muni du produit
scalaire (X; Y ) 7 ! E(XY ), comme la projection orthogonale de X sur le sous-espace
vectoriel L2 (F1 ; P ) des v.a. F1 -mesurables. Donc c’est la v.a. qui possède la propriété
extrémale suivante :
E[(X
1.3
E(X=F1 ))2 ]
Y )2 ]; 8Y 2 L2 (F1 ; P ):
E[(X
Filtration et processus adapté à une …ltration
Dé…nition 4 Soit ( ; F) un espace probabilisable, une …ltration de ( ; F) est une suite
croissante de sous-tribus F0
F1
:::
Fn
:::
F, si on installe une probabilité sur
( ; F), alors on dit que ( ; F; fFn gn 0 ; P ) est un espace probabilisé …ltré.
Dé…nition 5 Un processus stochastique fXn gn
0
est dit adapté à la …ltration fFn gn
0
si Xn est mesurable par rapport à Fn pour tout n.
Remarque 4 Le choix minimal de …ltration adaptante est la …ltration canonique (ou
naturelle)
Fn = (X0 ; X1 ; :::; Xn ):
Dans ce cas, Fn représente l’information disponible au temps n; si l’on observe le processus stochastique. Cependant, il arrive souvent que l’on soit obligé, à cause de diverses
manipulations probabilistes, de grossir la …ltration canonique.
9
1.4
Semi-groupe
L’origine de la théorie des semi-groupes d’opérateurs est l’étude de l’équation :
P (t + s) = P (t)P (s); P (0) = I;
où P (t) est un opérateur fonctionnel qui appartient à l’ensemble des opérateurs linéaires
bornés et qui agit sur un espace fonctionnel convenable (comme l’espace de Banach).
Ce problème a été indépendamment étudier par Hille et Yosida en 1948.
Dé…nition 6 Soit X un espace de Banach, une famille fPt gt
0
d’opérateurs linéaires
bornés sur X est appelé semi-groupe d’opérateurs si elle satisfasse :
i) P (0) = I, ii) P (t + s) = P (t)P (s).
Dé…nition 7 Un semi-groupe d’opérateurs linéaires bornés est dit uniformément continu
si :
lim kP (t)
Ik = 0:
t#0
Dé…nition 8 L’opérateur linéaire dé…ni par
D (A) =
P (t) x
t#0
t
x 2 X : lim
x
existe
et
P (t) x
t#0
t
x
Ax = lim
pour x 2 D (A)
est le générateur in…nitésimal du semi-groupe P (t), D (A) est le domaine de A.
1.5
Processus de Markov
Un processus de Markov est un processus stochastique possédant la propriété de
Markov suivante ; la prédiction du futur à partir du présent n’est pas rendue plus précise
par des éléments d’information concernant le passé.
10
Markov a publié les premiers résultats de ces processus en 1906. Une généralisation à
un espace d’état in…ni dénombrable a été donné par Kolmogorov en 1936.
Dé…nition 9 Soit ( ; F; fFt gt 0 ; P ) un espace probabilisé …ltré, un processus stochastique fXt gt
0
adapté à la …ltration fFt gt
Pour tout 0
0
est appelé processus de Markov si :
s < t; A 2 B(R)
P (Xt 2 A=Fs ) = P (Xt 2 A=Xs ):
Et si la …ltration est canonique Ft = (Xu ; 0
t) on a :
u
P (Xt 2 A=Fs ) = P (Xt 2 A= (Xs )):
Remarque 5 On conclut que le processus de Markov est caractérisé par :
1) La loi initiale de la variable X0 , notée
2) Pour tout t
0.
0 on se donne un mécanisme décrivant Xt , ou plutôt la loi de Xt
en fonction de Xs pour s < t, ce mécanisme s’appelle la loi de transition ou fonction de
transition, elle est notée Ps;t .
A partir de cette caractérisation en on déduit les lois …nie dimensionnelles du processus, 80 < t1 < ::: < tn ; 8A0 ; A1 ; :::; An 2 B(R) :
P (X0 2 A0 ; :::; Xn 2 An ) =
Z
A0
Z
Z
( (::
A1
Ptn
1 ;tn
(xn 1 ; dxn ))P0;t1 (x0 ; dx1 ))d 0 (x):
An
Dé…nition 10 Le processus de Markov fXt gt
0
est dit homogène si pour tout x 2 R,
A 2 B(R) la quantité : P (Xt 2 A=Xs = x) ne dépend de (s; t) que par la di¤érence t
11
s.
1.6
Relation entre les semi-groupes et le processus
de Markov
Du point de vue stochastique du semi-groupe d’opérateurs est d’origine de l’étude
des processus de Markov, le semi-groupe représente la loi de transition du processus de
Markov et la solution fondamentale de l’équation de la chaleur associée.
Dé…nition 11 Soit fXt gt 0 un processus de Markov homogène, on lui associe le semigroupe fPt gt
0
d’opérateurs linéaires bornés sur l’ensemble des fonctions boréliennes bor-
nées sur R
Ps;t f (Xs ) = Pt s f (Xs )
= E[f (Xt )=Fs ]; 0
s < t et x 2 R:
Proposition 1 La propriété du semi-groupe Pt+s = Pt
Ps résulte de la propriété de
Markov.
Démonstration 1 Pour 0 < s < t < u :
E [f (Xu =Fs )] = E [E [f (Xu =Ft )] =Fs ] = E [Pu t f (Xt ) =Fs ] :
Ceci donne :
Pu s f (Xs ) = Pt s (Pu t f (Xs )):
1.7
Martingale
Une martingale désigne un type de processus stochastique tel que sa valeur espérée
connaissant l’information disponible à une certaine date n, dénoté Fn , est sa valeur à
cette même date ; les martingales ont plusieurs propriétés qui les rendent très utiles dans
l’étude de processus stochastiques plus généraux comme l’intégrale stochastique.
12
Dé…nition 12 Soit ( ; F; fFn gn 0 ; P ) un espace probabilisé …ltré, une martingale par
rapport à la …ltration fFn gn
0
est un processus stochastique fXn gn
i) E jXn j < +1 pour tout n
ii) fXn gn
0
0
tq :
0,
est adapté à la …ltration fFn gn 0 ,
iii) E(Xn+1 =Fn ) = Xn pour tout n
0.
Si la dernière condition est remplacée par E(Xn+1 =Fn )
Xn ) on dit que fXn gn
0
Xn (resp. E(Xn+1 =Fn )
est une sur-martingale (resp. sous-martingale).
Proposition 2 1) Soit fXn gn
0
une martingale par rapport à fFn gn
0
et soit ' une
fonction convexe telle que E(j'(Xn )j) < +1 pour tout n, alors f'(Xn )gn
0
est une
sous-martingale par rapport à fFn gn 0 .
2) Soit fXn gn
0
une sous-martingale par rapport à fFn gn
0
et ' une fonction convexe
croissante telle que E(j'(Xn )j) < +1 pour tout n, alors f'(Xn )gn
0
est une sous-
martingale par rapport à fFn gn 0 .
Remarque 6 1) Les martingales, sur-martingales et sous-martingales en temps continu
t 2 [0; +1[ sont dé…nies comme dans le cas discret (n 2 N).
2) Les propriétés des martingales en temps discret s’étendent aux martingales en
temps continus.
1.8
1.8.1
Étude du mouvement brownien
Introduction
Le mouvement brownien est le nom donné aux trajectoires irrégulières du pollen en
suspension dans un liquide. Ce mouvement aléatoire, dû aux chocs successifs entre le
pollen et les molécules du liquide, entraîne la dispersion ou la di¤usion du pollen dans le
liquide. Il a été observé pour la première fois en 1827 par le botaniste Robert Brown.
13
Pourquoi l’étudier ?
Le champ d’application du M.B. est beaucoup plus vaste que l’étude des particules
microscopiques en suspension. Il est utilisé d’une part dans la modélisation des mathématiques …nancières (les prix des actions par exemple), il permet de décrire le comportement
thermodynamique des gaz (théorie cinétique des gaz), il est utilisé aussi dans la modélisation du bruit thermique dans les circuits éléctriques, dans le comportement limite des
problèmes de …les d’attente etc... D’autre part, on l’utilise aussi comme un outil théorique
dans les mathématiques elles mêmes, notamment en E.D.P. C’est à la fois un processus
gaussien, une martingale et un processus de Markov. Il est à la croisée des chemins de la
théorie des processus stochastiques.
Notice historique
1827 : Robert Brown a observé au microscope le ‡uide à la surface duquel sont suspendus des grains de pollen : de petites particules suivaient un mouvement di¢ cile à
distinguer nettement. Un mouvement chaotique qui n’a pas pu être expliqué par des
écoulements, ni par aucun autre phénomène physique connu jusqu’à lors, il les attribua
à une activité vitale.
1900 : Bachelier a eu les premiers résultats quantitatifs en s’intéressant aux ‡uctuations du prix des actions en économie.
1905 : Einstein a donné la première explication scienti…que à ce phénomène. Il montra
que ce mouvement pouvait être expliqué par le bombardement continuel exercé par les
molécules du liquide. Il a déterminé la densité de probabilité de transition du M.B. par
l’intermédiaire de l’équation de la chaleur et a relié ainsi le M.B. et les équations aux
dérivées partielles de type parabolique.
1923 : Norbert Wiener a fait le premier traitement mathématique rigoureux et il a
prouvé l’existence du M.B.
1926 : Prix Nobel de physique descerné à Jean Perrin pour ses travaux sur l’utilisation
du M.B. pour établir le nombre d’Avogadro (c’est le nombre d’atomes dans 12 g de
14
Carbone) sans utiliser les résultats rigoureux sur la mesure de Wiener.
1.8.2
Mouvement brownien standard réel
Avant de construire rigoureusement le M.B., donnons des aperçus intuitifs y compris
des propriétés …nes déjà soulignées par Einstein qui sont su…santes pour l’utilisation
courante du M.B. :
Dé…nition 13 Un processus stochastique fBt gt
0
est un M.B. standard réel si :
1. B0 = 0.
2. Bt suit la loi normale de moyenne 0 et de variance t.
3. fBt gt
0
est à accroissements stationnaires, c-à-d pour s < t l’accroissement Bt Bs
ne dépend que de la valeur t
s. Ainsi, Bt
Bs (qui a la même loi que Bt s ) suit
une loi normale de moyenne 0 et de variance t
4. fBt gt
t2
0
s.
est à accroissements indépendants, c-à-d pour toute suite de temps 0
tn , les accroissements non imbriqués Bt2
:::
Bt1 , Bt3
Bt2 ,..., Btn
t1
Btn
1
sont des v.a. indépendantes.
5. Le processus fBt gt
0
est continu.
Remarque 7 En fait le point 5 de la dé…nition découle des autres points.
1.8.3
Quelques propriétés importantes du mouvement brownien
1) Comme Bt
Bs suit la loi normale N (0; t
E[(Bt
s) on a :
Bs )4 ] = 3(t
s)2 :
2) Le M.B. véri…e le critère de continuité de Kolmogorov :
8" > 0; 9v:a:G";T tq jBt
Bs j
15
G";T jt
1
sj 2
"
; 8s; t 2 [0; T ]:
Intuitivement cela signi…e que
Bt = Bt+
1
t
Bt ' ( t) 2 .
1
3) Les trajectoires du M.B. sont localement Hölderiennes d’ordre pour tout < .
2
1
4) Si
avec probabilité 1, t ! Bt ne sont pas Hölderiennes en aucun point.
2
5) Avec probabilité 1, les trajectoires du M.B. sont nul part Lipschitziennes.
6) Avec probabilité 1, les trajectoires du M.B. sont nul part di¤érentiables.
7) Avec probabilité 1, les trajectoires du M.B. sont à variations non bornées sur tout
intervalle ]a; b[ (avec a < b).
Remarque 8 Comme le M.B. est continu, pour des besoins divers, on peut le considérer
comme une seule v.a. dé…nie comme suit : c’est une application B :
! C(R+ ; R),
! ! (t 7 ! Bt (!)) mesurable lorsque C(R+ ; R) est muni de la plus petite tribu rendant
mesurables les applications coordonnées C(R+ ; R) ! R; f ! f (t); 8t
0. La loi du M.B.
ou la mesure de Wiener, est la mesure image de P (d!) par cette application notée P
ou parfois W . On suppose que B0 (!) = x0 = 0, on a pour 0 = t0 < t1 < ::: < tn et
A1 ; A2 ; :::; An 2 B(R) :
P (f!; Bt1 (!) 2 A1 ; :::; Btn (!) 2 An g) =
Z
A1 ::: An
(xi xi 1 )2
)
e i=1 2(ti ti 1 )
! 12 dx1 :::dxn :
n
Y
(2 )n
(ti ti 1 )
(
n
P
i=1
(1.1)
1.8.4
Construction du mouvement brownien
Passons maintenant à une construction rigoureuse du M.B. Pour toute la suite, soit P
l’ensemble des parties …nies Tn = (t1 ; t2 ; :::; tn ) ; ti 6= tj , 8i 6= j, ti 2 [0; 1[, i 2 f1; :::; ng
N. On suppose que pour chaque Tn de longueur n, on a une mesure de probabilité PTn sur
(Rn ; B(Rn )). La collection fPTn gTn 2P est appelée la famille des distributions de dimension
…nie.
Il s’agit de dire qu’à partir de la formule (1.1) il n’y a qu’une seule loi sur C(R+ ; R)
16
qui donne lieu à ces lois …nies dimentionnelles. Considérons la construction canonique du
M.B.
Un cylindre de base …nie n dans R[0;+1[ est un ensemble de la forme
f! 2 R[0;+1[ ; (! (t1 ) ; :::; ! (tn )) 2 Ag; 0
t1 < ::: < tn ; A 2 B (Rn ) ;
l’ensemble C des cylindres de base …nie génère la tribu de Kolmogorov
(C) et mal-
heureusement elle ne coïncide pas avec B(R[0;+1[ ) qui contient C(R+ ; R). On prendra
= R[0;+1[ , F =
d’abord comme espace de probabilités
(C), P (d!) = P (d!) et les
applications coordonnées Bt (!) = !(t). Si on avait déjà une mesure de probabilité P sur
(R[0;+1[ ; (C)), on peut dé…nir la famille des distributions de dimension …nie par :
PTn (A) = P f! 2 R[0;+1[ : (!(t1 ); !(t2 ); :::; !(tn )) 2 Ag; A 2 B(Rn ) et Tn = (t1 ; t2 ; :::; tn ):
Il est facile de voir que cette famille est nécessairement consistante dans la mesure où
PTn (A
où n
1, Tn
1
R) = PTn 1 (A);
(1.2)
= (t1 ; t2 ; :::; tn 1 ) et A 2 B(Rn 1 ). On va s’intéresser à l’inverse de
ce fait, cela va nous permettre de construire une mesure de probabilité P à partir des
distributions de dimension …nie du M.B.
Théorème de consistance de Kolmogorov
Intuitivement c’est étendre la formule (1.1) à un objet de la forme
Z
Z
| {z }
1
1
Q
(
e
2
xi )
ti
2
i
1p
Q
2
ti
dx1 :::dx1 :
i
Théorème 1 (Daniell 1918, Kolmogorov 1933) Soit fPTn gTn 2P une famille de distri17
butions de dimension …nie consistante, c-à-d satisfait (1.2), alors il existe une unique
mesure de probabilité P sur (R[0;+1[ ; (C)) tq :
8n; PTn (A) = P f! 2 R[0;+1[ : (!(t1 ); !(t2 ); :::; !(tn )) 2 Ag; A 2 B(Rn ):
Donc nous avons construit une probabilité P sur l’espace canonique (R[0;+1[ ; (C)) qui
est presque un M.B. standard de dimension un. On dit presque parce que nous laissons de
côté l’exigence de la continuité trajectorielle du M.B. observée au laboratoire. Ce modèle
répond déjà à beaucoup de questions concernant le M.B., y compris celles qui concernent
des sous ensembles de R[0;+1[ qui ne sont pas de dimension in…nie. Malheureusement,
pour d’autres questions il est insu¢ sant.
Remarque 9 Le théorème de Kolmogorov plus haut n’est en fait qu’une version déguisée
du même théorème pour N au lieu de [0; +1[.
Maintenant on veut que la construction du M.B. soit plus complète, car nous avons
construit le processus sur l’espace R[0;+1[ plutôt que sur l’espace C(R+ ; R). On espère
dépasser cette di¢ culté par la véri…cation que la mesure de probabilité P assigne une
mesure à C(R+ ; R). Cependant, C(R+ ; R) n’est pas, comme on l’a dit plus haut, dans
la tribu
(C) et alors P (C(R+ ; R)) n’est pas dé…nie. Cet échec est la manifestation du
fait que la tribu
(C) est tout à fait inconfortable “trop petite” pour un espace grand
comme C(R+ ; R). Aucun ensemble dans (C) ne peut avoir une interprétation en plusieurs
coordonnées non dénombrables.
Par conséquant, on va utiliser une approche di¤érente qui consiste à construire une
modi…cation continue du processus précédent. Pour cela, soit Q2 = fm2
n
; m; n
0g
l’ensemble des rationnels dyadiques. Le théorème de Kolmogorov garantie qu’on puisse
dé…nir sur un certain espace de probabilité ( ; F; P ), une famille de v.a. fBt gt2Q2 avec
les lois …nies dimensionnelles (1.1) qui sont consistantes. Pour étendre fBt gt2Q2 à un
processus dé…ni sur [0; +1[ on va montrer qu’avec une probabilité 1, la fonction t !
Bt est uniformément continue sur Q2 \ [0; 1] (il su¢ t de prendre [0; 1] au lieu [0; +1[).
18
Les étapes principales dont on doit passer par eux sont :
i) E jBt4 j = 3t2 ,
ii) Un calcul non trivial de Kolmogorov (voir [10], page4) en utilisant l’inégalité de
Chebychev et le lemme de Borel Cantelli.
Ce qui nous donnent fBt gt2Q2 est Hölderien avec probabilité 1 alors uniformément
continu p.s. et donc le processus Bt (!) initialement dé…ni pour t 2 Q2 admet une extension unique t ! Bt (!) qui est continue sur [0; +1[ p.s.
Remarque 10 On peut aussi montrer qu’il existe une mesure de probabilité P sur R[0;+1[ ,
muni de B(R[0;+1[ ), pour laquelle le processus des applications coordonnées Bt (!) = !(t);
t
0 a des accroissements stationnaires, indépendants, l’accroissement Bt Bs ; 0
s<t
a une distribution normale de moyenne 0 et variance t s. Ceci est juste une conséquence
de la construction du M.B. sur C(R+ ; R).
1.8.5
Le mouvement brownien comme un processus gaussien
Rappel
1) Variable gaussienne
Proposition 3 Pour
> 0, m 2 R on dit qu’une v.a. X suit la loi N (m;
2
) si X
véri…e l’une des trois propriétés suivantes : i) X = Y + m où Y suit la loi N (0; 1). ii)
2
(x m)
1
2 2 . iii) La fonction caractéristique de X
La densité de X est PX (x) = p
e
2
1 2 2
itm
t
itX
2
est E(e ) = e
où E(X) = m et V ar(X) = 2 .
Proposition 4 1) Soient X et X 0 deux v.a. indépendantes où X suit la loi N (m;
X 0 suit la loi N (m0 ;
02
), alors X +X 0 suit la loi N (m+m0 ;
suite de v.a. telle que Xn suit la loi N (mn ;
2
n ),
vers X alors : La v.a. X est aussi de loi N (m;
2
+
02
2
) et
). 2) Soit fXn gn2N une
supposons que Xn converge en probabilité
2
) et m = lim mn ;
n!+1
= lim
n!+1
n.
Si la
suite fXn gn2N converge en probabilité vers X, alors la convergence a lieu dans tous les
espaces Lp ; p < +1.
19
2) Vecteur gaussien
Dé…nition 14 Une v.a. X = (X1 ; :::; Xn ) à valeurs dans Rn est un vecteur gaussien si
n
P
8u = ui ei 2 Rn , hu; Xi est une v.a. gaussienne.
i=1
Remarque 11 Si X est un vecteur gaussien dans Rn , il existe mX =
Rn et une forme quadratique positive qX sur Rn tq : soit u 2 Rn
E(hu; Xi) = hu; mX i ;
var(hu; Xi) = qX (u) =
n
X
n
P
i=1
Xi ei = E (X) 2
ui uj cov (Xi ; Xj )
i;j=1
hu; Xi est de loi N (hu; mX i ; qX (u)), donc la transformée de Fourier :
E(exp(i hu; Xi)) = exp(i hu; mX i
1
qX (u)):
2
Proposition 5 Sous les hypothèses précédentes, les v.a. X1 ; X2 ; :::; Xn sont indépendantes ssi la matrice de covariance (cov(Xi ; Xj ))1
i;j n
est diagonale, soit ssi la forme
quadratique qX est diagonale dans la base (e1 ; e2 ; :::; en ).
3) Processus gaussien
Dé…nition 15 Un processus stochastique fXt gt2[o;T ] est dit gaussien si chacun des vecteurs extraits est un vecteur gaussien c-à-d pour tout n 2 N et tout n-uplet (t1 ; t2 ; :::; tn )
tq t1 < t2 < ::: < tn , le vecteur (Xt1 ; Xt2 ; :::; Xtn ) est gaussien.
Remarque 12 i) Un processus gaussien fXt gt2[o;T ] est donc caractérisé en loi par ses
fonctions espérance et covariance m(t) = E(Xt ) et K(s; t) = cov(Xs ; Xt ).
ii) La question maintenant est la suivante ; si l’on se donne ces deux fonctions, existeil un processus gaussien associé ? Il s’avère que la réponse est positive lorsque K véri…e
quelques bonnes propriétés (fonction symétrique de type positif sur [0; T ]
démonstration utilise principalement le théorème de Kolmogorov.
20
[0; T ]). La
Dé…nition du mouvement brownien comme un processus gaussien
Dé…nition 16 Un processus fBt gt2[0;T ] à valeurs dans R est appelé M.B. standard (sur
l’intervalle [0; T ]) si c’est un processus gaussien centré à trajectoires continues et la fonction de covariance donnée par :
K(s; t) = cov(Bs ; Bt ) = min(s; t); s; t 2 [0; T ]:
Proposition 6 Soit (Bt )t2[0;T ] un M.B., alors il véri…e les assertions suivantes :
1) B0 = 0.
2) (Bt )t2[0;T ] un processus à accroissements indépendants. En e¤et, soit 0
t1 < t2 <
t3 < t4 on a :
cov(Bt2
Bt1 ; Bt4
Bt3 ) = E((Bt2
Bt1 )(Bt4
= E(Bt2 Bt4 )
= t2
t1
Bt3 ))
E(Bt1 Bt4 )
E(Bt2 Bt3 ) + E(Bt1 Bt3 )
t2 + t1 = 0:
3) Bt suit la loi normale d’espérance nulle et variance t (var(Bt ) = K(t; t) = t).
4) Si s
t on a Bt
E((Bt
1.8.6
L
Bs = Bt s , en e¤et :
Bs )(Bt
Bs )) = cov(Bt
Bs ; Bt
Bs )
=
2E(Bt Bs ) + E(Bt Bt ) + E(Bs Bs )
=
2s + s + t = t
s:
Le mouvement brownien comme limite d’une marche aléatoire
Soit Xi ; i 2 N une suite des v.a. indépendantes identiquement distribuées c’est la
situation la plus aléatoire. La suite des Xi en soi n’est pas très intéressante, par contre
21
la suite des sommes partielles Sn =
n
P
Xi admet plusieurs propriétés remarquables. En
i=1
particulier
1) La loi faible des grandes nombres : si l’espérance E(X0 ) est …nie, alors
Sn
converge
n
vers E(X0 ) en probabilité, c-à-d :
Sn
n
lim P f
n!+1
E(X0 ) > "g = 0; 8" > 0:
2) La loi forte des grandes nombres : si l’espérance E(X0 ) est …nie, alors
Sn
converge
n
p.s. vers E(X0 ) c-à-d :
Sn
= E(X0 )g = 1:
n!+1 n
P f lim
3) Le théorème de la limite centrale : si l’espérance E(X0 ) et la variance var(X0 ) sont
Sn nE(X0 )
…nies, alors p
tend en loi vers une v.a. normale centrée réduite, c-à-d :
n var(X0 )
lim P fa
n!+1
pour tout choix de
Sn
p
nE(X0 )
n var(X0 )
bg =
Z
1
p e
[a;b] 2
x2
2
dx;
1 < a < b < +1.
Cette marche aléatoire Sn est dite symétrique sur Z si les variables Xi prenant valeurs
1
1 et +1 avec probabilité : On en déduit :
2
1) E(Sn ) = 0.
2) V ar(Sn ) = n.
3) Sn prend ses valeurs dans f n; n + 2; :::; n
P fSn = kg =
2; ng avec
n!
:
n+k n k
n
2 (
)!(
)!
2
2
4) Propriétés des incréments indépendants : pour tout n > m
0; Sn
Sm est
indépendant de S1 ; S2 ; :::; Sm .
5) Propriétés des incréments stationnaires : pour tout n > m
22
0; Sn
Sm a la même
loi que Sn
m.
Considérons alors la suite deprocessus
(n)
Bt
1
= p S[nt] ; t 2 R+ ; n 2 N :
n
Cela signi…e que l’on accélère le temps d’un facteur n, tout en comprimant l’espace d’un
p
1
(n)
facteur n, de sorte que Bt e¤ectue des pas de p sur les intervalles de temps de
n
1
longueur .
n
(n)
Soit Bt le processus obtenu, en prenant la limite de Bt lorsque n ! +1, au sens
des distributions …nies. Autrement dit, Bt dé…ni par le fait que pour toute partition
0
t1 < t2 < ::: < tk = t de [0; t] et tout (x1 ; x2 ; :::; xk ) 2 Rk :
P fBt1
x1 ; :::; Btk
(n)
xk g = lim P fBt1
n!1
(n)
x1 ; :::; Btk
xk g:
Supposons que cette limite existe, le processus Bt aura les propriétés suivantes :
1) E(Bt ) = 0.
2) La variance de Bt satisfait :
1
var(Bt ) = lim ( p )2 [nt] = t:
n!1
n
3) Par le théorème de la limite centrale (ou la formule de Moivre-Laplace appliquée
S[nt]
n!
à P fSn = kg =
), p converge en loi vers une v.a. normale centrée
n+k n k
nt
2n (
)!(
)!
2
2
réduite. Par conséquent, Bt suit la loi N (0; t).
4) Propriétés des incréments indépendants : pour tout t > s
pendant de fBu g0
u
0; Bt
Bs est indé-
s.
5) Propriétés des incréments stationnaires : pour tout t > s
loi que Bt s .
23
0; Bt
Bs a la même
1.8.7
Le mouvement brownien comme processus de Markov
Sachant que le M.B. est à accroissement indépendant, il est facile de calculer la loi
conditionnelle de Bt sachant Fs , s < t.
Proposition 7 Un M.B. est un processus de Markov homogène de semi-groupe de transition Pt donné par :
Pt f (x) =
Z
R
y)2
(x
1
p
e
2 t
2t
f (y)dy; 8x 2 R et 8y 2 Bb (R):
Démonstration 2 Pour A 2 B(R), t > 0 et h > 0 :
P (Bt+h 2 A=Ft ) = E(1A (Bt+h
= E(1A (Bt+h
Bt + Bt )=Ft )
Bt + Bt )=Bt ) = E(1A (Bt+h )=Bt ):
Soit u 2 R :
E(eiu(Bt
Bs )
=Fs ) = E(eiu(Bt
Z
=
R
d’où l’on tire :
E(eiuBt =Fs ) =
Z
R
Donc si f est de la forme :
f (x) =
Bs )
1
p
2 (t
1
p
2 (t
iu1 x
1e
)
s)
y2
e 2(t s) eiu(Bs
+ ::: +
24
s)
y2
e 2(t s) eiuy dy;
iun x
;
ne
y)
dy:
on a :
E[f (Bt )=Fs ] =
Z
R
1
p
2 (t
s)
y2
e 2(t s) f (Bs
y)dy:
Cette relation s’étend ensuite à L2 (R) par densité et à Bb (R) par le théorème de classe
monotone.
1.8.8
Le mouvement brownien comme une martingale
La considération du M.B. comme une martingale a de nombreux liens avec l’intégrale
stochastique.
Théorème 2 Soit ( ; F; fFt gt 0 ; P ) un espace probabilisé …ltré, le M.B. est une martingale par rapport à la …ltration canonique fFt gt 0 :
Démonstration 3 Pour tout t > s
0, on a :
E(Bt =Fs ) = E(Bt + Bs
Bs =Fs )
= E(Bt
Bs =Fs ) + E(Bs =Fs )
= E(Bt
Bs ) + Bs = Bs :
Remarque 13 L’inégalité de Jensen implique que Bt2 et e
Bt
pour
> 0 sont des sous-
martingales.
Le résultat suivant montre qu’en les modi…ant de manière déterministe, on obtient
des martingales.
Proposition 8 1) Bt2
2) Pour tout
2 R; e
t est une martingale.
Bt
2
t
2
est une martingale.
25
Démonstration 4
1) E(Bt2
Bt
2
t
2
t=Fs )
= E(Bt
Bs )2 + 2(Bt
= E(Bt
Bs )2 + 2Bs E(Bt
s + 0 + Bs2
= t
2) E(e
Bs + Bs )2
t=Fs ) = E((Bt
=Fs ) = E(e
= E(e
(Bt Bs +Bs )
(Bt Bs )+ Bs
2
t
2
Bs )Bs + Bs2 =Fs )
Bs ) + Bs2
t = Bs2
t
t
s:
=Fs )
=Fs )e
2
t
2
=e
Bs
2
t
2
e
E(e
(Bt Bs )
):
Par un calcul on trouve que :
E(e
(Bt Bs )
)=e
2
(t
2
s)
:
Donc on a :
E(Bt2
1.9
t=Fs ) = e
Bs
2
2
t+ 2 (t
2
s)
=e
Bs
2
s
2
:
L’intégrale stochastique d’Itô
Le but de l’intégrale d’Itô est de donner un sens à des équations de la forme :
dX
dBt
= f (X) + g(X)
;
dt
dt
(1.3)
appelées équations di¤érentielles stochastiques, voir section (1.10) plus bas. Par exemple,
si f
0 et g
1, on devrait retrouver Xt = X0 + Bt , décrivant le mouvement suramorti
d’une particule brownienne. Le problème est que, comme nous l’avons mentionné, les
trajectoires du processus de Wiener ne sont pas di¤érentiables, ni même à variations bornées. Comme dans le cas des E.D.O., on interprète une solution de l’équation di¤érentielle
26
(1.3) comme une solution de l’équation intégrale :
Xt = X0 +
Z
t
f (Xs )ds +
0
Z
t
g(Xs )dBs :
(1.4)
0
C’est à la 2ieme intégrale qu’il s’agit de donner un sens mathématique. Si s 7 ! g(Xs )
était di¤érentiable, on pourrait le faire à l’aide d’une intégration par parties (comme on
le fait en théorie des distributions), mais ce n’est en général pas le cas. Itô a donné une
autre dé…nition de l’intégrale stochastique, qui s’applique à une classe beaucoup plus
vaste d’intégrants (et donne le même résultat que l’intégration par parties dans le cas
di¤érentiable). Pour le cas général voir section (1.11) plus bas.
Dé…nition 17 Notre but est de dé…nir l’intégrale stochastique :
Z
t
Xs dBs ;
0
simultanément pour tous les t 2 [0; T ], où Xt est lui-même un processus stochastique. Plus
précisément, nous supposerons que Xt est une fonctionnelle brownienne non-anticipative,
c-à-d fFt gt
0
désignant la …ltration canonique engendrée par fBt gt 0 )
i) X est mesurable par rapport à F.
ii) Xt est adapté à Ft (mesurable par rapport à Ft ) pour tout t 2 [0; T ]. Ceci revient
à exiger que Xt ne dèpende que de l’histoire du processus de Wiener jusqu’au temps t, ce
qui est raisonnable au vu de l’équation (1.4). En outre, nous allons supposer que :
Z
Pf
T
Xt2 dt < +1g = 1
0
Remarque 14 On peut admettre que Xt dépende de v.a. supplémentaires, indépendantes
de Bt ; par exemple, la condition initiale peut être aléatoire. Il convient alors d’étendre
les tribus F et Ft dans la dé…nition ci-dessus à des tribus plus grandes A et At , où At
ne doit pas dépendre de la tribu engendrée par fBt+s
27
Bt gs 0 .
Dans un premier temps, nous allons dé…nir l’intégrale stochastique pour un intégrant
simple.
Dé…nition 18 Une fonctionnelle brownienne non-anticipative fet gt2[0;T ] est dite simple
ou élémentaire s’il existe une partition 0 = t0 < t1 < ::: < tN = T de [0; T ] tq :
N
X
et =
eti 1 1[ti
1 ;ti [
(t)
i=1
Pour une telle fonctionnelle, nous dé…nissons l’intégrale stochastique par :
Z
t
es dBs =
0
1.9.1
1. Si
2. Si
m
X
eti 1 [Bti
Btm ]; tel que t 2 [tm ; tm+1 [ :
Bti 1 ] + etm [Bt
i=1
Propriétés
Rt
0
Rt
0
Rt
E (jes j) ds < 1, alors E( 0 es dBs ) = 0.
E (e2s ) ds < 1, on a l’isométrie d’Itô
Z t
Z t
2
E(( es dBs ) ) =
E(e2s )ds:
0
0
Démonstration 5 1) On pose que tm+1 = t on a :
Z t
m+1
X
E( es dBs ) = E[
eti 1 (Bti
0
=
i=1
m+1
X
E eti
i=1
1
Bti 1 )]
E(Bti Bti 1 ) = 0;
{z
}
|
q
0
en vertu des propriétés des incréments indépendants et gaussiens.
28
(1.5)
2) Posons tm+1 = t on a
Z t
m+1
X
E(( es dBs )2 ) = E(
eti 1 etj 1 (Bti
0
Bti 1 )(Btj
Btj 1 ))
i;j=1
=
m+1
X
E(e2ti
2
1
i=1
)E[(Bti Bti 1 )] =
|
{z
}
ti
q
Z
t
E(e2s )ds:
0
t
i 1
Nous avons utilisé la propriété des incréments indépendants a…n d’éliminer les termes
i 6= j de la double somme, et le fait que es est nonanticipative.
L’idée d’Itô pour dé…nir l’intégrale stochastique d’une fonctionnelle non-anticipative
générale X est de trouver une suite de fonctionnelles simples e(n) approchant X dans
L2 (P ), c-à-d :
lim
n!+1
Z
T
2
e(n)
s ) )ds = 0:
E((Xs
0
L’isométrie (1.5) nous permet alors d’a¢ rmer que la limite suivante existe dans L2 (P ) :
lim
n!+1
Z
t
e(n)
s dBs
0
=
Z
t
Xs dBs :
0
C’est par dé…nition l’intégrale d’Itô de Xs .
Remarque 15 Cette construction est bien possible, indépendante de la suite des e(n) .
Rt
Proposition 9 Le processus f 0 Xs dBs gt
Démonstration 6 Soit 0
0
est une martingale.
u < t on a :
Z t
Z u
Z t
E( Xs dBs =Fu ) = E(
Xs dBs =Fu ) + E( Xs dBs =Fu )
0
0
u
Z u
Z u
=
Xs dBs + 0 =
Xs dBs :
0
0
29
1.9.2
Formule d’Itô dans R
Théorème 3 Soit Xt = X0 +
alors pour tout t 2 R+
f (Xt ) = f (X0 ) +
Rt
0
Z
b(Xs )ds +
t
Rt
g(Xs )dBs un processus d’Itô et f 2 C 2 (R),
0
1
(f b)(Xs )(ds + dBs ) +
2
0
0
Z
t
(f 00 g 2 )(Xs )ds:
(1.6)
0
Démonstration
L’idée fondamentale est d’appliquer la formule de Taylor,
f (Xt ) = f (X0 ) + f 0 (X0 )(Xt
1
X0 ) + f 00 (X0 )(Xt
2
Pour les détails voir [11], page 32. Par exemple
Rt
0
X0 )2 + Reste(!):
1
Bs dBs = Bt2
2
t
:
2
Théorème 4 Soit f 2 C 1;2 (R+ ; R), alors pour tout t 2 R+ ;
f (t; Bt ) = f (0; B0 ) +
Z
0
1.9.3
t
@f
(s; Bs )ds +
@t
Z
t
0
@f
1
(s; Bs )dBs +
@x
2
Z
0
t
@2f
(s; Bs )ds:
@2x
Théorème d’Itô
Nous allons donner l’équivalent de la formule de Lagrange de l’analyse classique. Elle
porte le nom de représentation prévisible. Soit F une v.a. dans L2 alors il existe un
processus prévisible gt t.q.
F = E (F ) +
Z
1
gt dXt ;
(1.7)
0
Cette relation sera fondamentale pour nous quand on abordera le calcul de Malliavin.
1.10
Les EDS
Une EDS est une équation de la forme (1.4). Pour résoudre (en autres) ce type
d’équations, on a des fois recourt au théorème de Girsanov. Ce dernier dit que l’ef30
R
fet de rajouter une dérive de la forme hs ds au brownien B revient, sous la loi Q =
Rt
Rt
exp( 0 hs dBs 12 0 h2s ds)P , à obtenir juste un autre brownien.
1.11
Martingales normales
Il est possible aussi d’intégrer par rapport à des martingales plus générales que le
M.B. même si celles-ci sont discontinues (comme les martingales de Poisson Xt = Pt
t
où Pt est un processus de Poisson de paramètre ). On peut même intégrer par rapport à
des semi-martingales. Ici le cas des martingales normales est important pour nous en vue
des utilisations ultérieures au chapitre 3. Une martingale réelle fXt gt
0
continue à droite
est dite normale si son crochet oblique dhX; Xit est égal à dt. La plupart du temps, X
sera nulle en 0. Dans le cas des martingales vectorielles, la normalité s’exprime par les
conditions dhX i ; X j it =
ij
dt. Le prix à payer est d’imposer des conditions supplémen-
taires sur les processus à intégrer. En gros, on demande qu’ils soient prévisibles. Voici
une image intuitive concernant la prévisibilité : si une personne tombe gravement malade
à des instants aléatoires t1 ; :::; tn , on commence à prévoir que ce malade ne survivra pas
longtemps à l’issue de ces maladies, c-à-d ces instants annoncent sa mort même si celle-ci
est encore aléatoire. Dans un contexte discret, un processus fXn gn2N est dit prévisible si
pour tout n 2 N, Xn est Fn
1
mesurable. La tribu prévisible Fp est par dé…nition la plus
petite tribu qui rend les processus continus à gauche mesurables.
1.11.1
Intégrale stochatique
Considérons donc une martingale normale Xt . L’intégrale la plus importante assoR
R
ciée à cette martingale est [0;t] Xs dXs . Maintenant en général l’intégrale Xs dYs est
P
analogue à une somme de la forme
Xk 1 (Yk Yk 1 ). La sommation par parties pour
chaque somme :
xt yt
x0 y0 =
n
X
k=1
xk
1
(yk
yk 1 ) +
n
X
yk
1
(xk
k=1
xk 1 ) +
n
X
k=1
31
(xk
xk 1 ) (yk
yk 1 ) ;
suggére la formule fondamentale de l’intégration par parties
Xt Yt
X0 Y0 =
Z
Xs dYs +
[0;t]
Mais quel sens on donne à
R
[0;t]
Z
Ys dXs +
[0;t]
Z
dXs dYs :
[0;t]
dXs dYs ? qu’on appelle crochet. Il est facile de croire
que si X et Y ont des trajectoires à variations bornées, alors l’interprétation correcte est
comme suit :
Z
dXs dYs =
X
Xs
Xs
Ys
Ys
:
0<s t
On montre que pour notre martingale Xt cette somme converge dans L2 vers un crochet
bien dé…ni, pour les détails voir [21].
Nous aurons à utiliser des résultats très simples sur des intégrales stochastiques
R
f (s; u)dXs dépendant d’un paramètre u. Soit U un espace Polonais (métrisable, com-
plet, admettant une suite dense) muni d’une mesure (
…nie) . Considérons une fonction
f (!; s; u) mesurable et de carré intégrable relativement à la mesure dP
ds
d ; adap-
tée pour tout u …xé. On peut alors (en utilisant le théorème de Fubini et les remarques
ci-dessus), dé…nir l’intégrale
Ju =
Z
f (s; u)dXs 2 L2 ( ; F; P );
pour presque tout u. Nous aurons besoin de savoir que l’application u ! Ju est mesurable. La démonstration est presque immédiate : il su¢ t d’approcher la fonction f , au
sens de la norme L2 (dP
ds
d ), par des fonctions de la forme a(!; s)b(u).
Remarque 16 Il est parfois commode, dans le cas d’une martingale normale X, d’assouplir un peu la théorie de l’intégrale stochastique. La dé…nition de l’intégrale stoR1
chastique 0 f (s)dXs , s’applique a priori a un processus fft gt 0 prévisible et tel que
R
E jf (s)j2 ds < 1. Nous allons lui donner un sens, en suivant [9], pour des processus fft gt
0
possédant cette dernière propriété, mais mesurables et adaptés plutôt que
prévisibles, un peu mieux même : il su¢ t que la courbe t ! ft , considérée comme ap32
plication de R+ dans l’espace de Hilbert H = L2 ( ; F; P ), soit mesurable et adaptée
(ft 2 L2 ( ; F; P ) pour tout t). Pour voir cela, on choisit d’abord pour tout t, un représentant de la classe ft ; de sorte que le processus fft gt
0
soit mesurable et adapté. On en
choisit ensuite une version prévisible fft0 gt 0 , en tranquant le processus pour se ramener
au cas des processus bornés, en appliquant le théorème de projection prévisible, voir [8]
ou [22], et en faisant tendre n vers l’in…ni. Cela permet de dé…nir l’intégrale stochastique
R1 0
00
fs dXs . Si l’on considère deux représentants prévibles fft0 gt 0 et ft t 0 de la courbe
0
fft gt 0 , on a
E
Z
00
fs0
fs
2
ds = 0
[0;1[
et par conséquant les deux intégrales stochastiques correspondantes sont p.s. égales. Leur
R1
valeur commune sera désignée par 0 fs dXs .
33
Chapitre 2
MÉCANIQUE QUANTIQUE ET
PROBABILITÉS NON
COMMUTATIVES
2.1
MÉCANIQUE QUANTIQUE
Nous allons d’abord vulgariser cette science ensuite on passera doucement au formalisme mathématique.
Dans cette partie on s’est inspiré de [6]. La physique quantique est l’étude de la matière
et du rayonnement au niveau atomique ou subatomique. Elle a apporté une révolution
conceptuelle ayant des répercussions jusqu’en philosophie (remise en cause du déterminisme) et en littérature (science-…ction). Elle a permis nombre d’applications technologiques : énergie nucléaire, imagerie médicale par résonance magnétique nucléaire, diode,
transistor, microscope électronique et laser. Un siècle après sa conception, elle est abondamment utilisée dans la recherche en chimie théorique (chimie quantique), en physique
(mécanique quantique, théorie quantique des champs, physique de la matière condensée,
physique nucléaire, physique des particules, physique statistique quantique, astrophysique, gravité quantique), en mathématiques (formalisation de la théorie des champs) et,
34
récemment, en informatique (ordinateur quantique, cryptographie quantique). Elle est
considérée avec la relativité générale d’Einstein comme l’une des deux théories majeures
du 20ieme siècle. La physique quantique est connue pour être contre-intuitive, choquer le
« sens commun » et nécessiter un formalisme mathématique ardu. Feynman, l’un des
plus grands théoriciens spécialistes de la physique quantique de la seconde moitié du
20ieme siècle, a ainsi écrit :« Personne ne comprend vraiment la physique quantique » ,
comprendre signi…e interpréter les résultats de la théorie en termes simples utilisant la logique et le bon sens de la vie de tous les jours, alors Feynman avait sûrement raison, tant
la mécanique quantique dé…e l’intuition. Pourtant, avec un peu d’habileté et beaucoup
de courage, on peut en maîtriser le formalisme mathématique et en tirer toutes sortes de
prédictions, dont aucune n’a jamais été prise en défaut.
La raison principale de ces di¢ cultés est que le monde de l’in…niment petit se comporte très di¤éremment de l’environnement macroscopique auquel nous sommes habitués.
Quelques di¤érences fondamentales qui séparent ces deux mondes sont par exemples
La quanti…cation : Un certain nombre d’observables, par exemple l’énergie émise par
un atome lors d’une transition entre états excités, sont quanti…és, c-à-d qu’ils ne peuvent
prendre leur valeur que dans un ensemble discret de résultats. A contrario, la mécanique classique prédit le plus souvent que ces observables peuvent prendre continûment
n’importe quelle valeur.
La dualité onde-particule : La notion d’onde et de particule qui sont séparées en
mécanique classique deviennent deux facettes d’un même phénomène, décrit de manière
mathématique par sa fonction d’onde. En particulier, l’expérience prouve que la lumière
peut se comporter comme des particules (photons, mis en évidence par l’e¤et photoélectrique) ou comme une onde (rayonnement produisant des interférences) selon le contexte
expérimental, les électrons et autres particules pouvant également se comporter de manière ondulatoire.
Le principe d’incertitude de Heisenberg : Une incertitude fondamentale empêche la
mesure exacte simultanée de deux grandeurs canoniquement conjuguées. Il est notamment
35
impossible d’obtenir une grande précision sur la mesure de l’impulsion d’une particule
sans obtenir une précision médiocre sur sa position, et vice versa. Cette incertitude est
structurelle et ne dépend pas du soin que l’expérimentateur prend à ne pas « déranger
» le système ; elle constitue une limite à la précision de tout instrument de mesure.
Le principe d’une nature qui joue aux dés : Si l’évolution d’un système est bien
déterministe (par exemple,la fonction d’onde régie par l’équation de Schrödinger), la mesure d’une observable d’un système dans un état donné connu peut donner aléatoirement
une valeur prise dans un ensemble de résultats possibles.
L’observation in‡ue sur le système observé : Au cours de la mesure d’une observable,
un système quantique voit son état modi…é. Ce phénomène, appelé réduction du paquet
d’onde, est inhérent à la mesure et ne dépend pas du soin que l’expérimentateur prend à
ne pas « déranger » le système.
La non-localité ou intrication : Des systèmes peuvent être intriqués de sorte qu’une
interaction en un endroit du système a une répercussion immédiate en d’autres endroits.
Ce phénomène contredit en apparence la relativité restreinte pour laquelle il existe une
vitesse limite à la propagation de toute information, la vitesse de la lumière ; toutefois,
la non-localité ne permet pas de transférer de l’information.
La contrafactualité : Des évènements qui auraient pu se produire, mais qui ne se
sont pas produits, in‡uent sur les résultats de l’expérience.
2.1.1
Historique
Vers la …n du 19ieme siècle, les physiciens pensaient avoir pratiquement compris le
fonctionnement de l’univers. Trois cents ans plus tôt, Newton avait établi les lois qui
régissent le monde physique :
1. Principe de l’inertie : « Tout corps persévère dans l’état de repos ou de mouvement
uniforme en ligne droite dans lequel il se trouve, à moins que quelque force n’agisse sur
lui, et ne le contraigne à changer d’état » .
2. Principe fondamental de la dynamique de translation : «Soit un corps de masse m
36
(constante), l’accélération subie par ce corps dans un référentiel galiléen est proportionnelle à la résultante des forces qu’il subit, et inversement proportionnelle à sa masse m
».
3. Principe des actions réciproques : « Tout corps A exerçant une force sur un corps
B subit une force d’intensité égale, de même direction mais de sens opposé, exercée par
le corps B » .
Et, en 1864, Maxwell découvrit leur équivalent qui explicitait le comportement de
la lumière et d’autres phénomènes éléctromagnétiques (Les équations de Maxwell permettent de développer une théorie générale de l’électromagnétisme. Elles permettent donc
d’expliquer aussi bien la propagation de la lumière que le fonctionnement d’un électroaimant ). Ainsi, en apparence, la représentation de la matière et de la lumière semblait
aboutir. Et pourtant ! En une génération, la découverte de phénomènes opérant en dehors du cadre des lois de Newton et de Maxwell mit le monde de la physique sens dessus
dessous, en e¤et, un certain nombre de faits expérimentaux connus à la …n du 19ieme
siècle étaient inexplicables dans le cadre de la théorie classique. Ces faits expérimentaux
discordants ont conduit progressivement les physiciens à proposer une nouvelle vision du
monde, la physique quantique. Les étapes majeures de cette révolution conceptuelle se
sont déroulées que entre 1900 et 1925.
2.1.2
Le rayonnement du corps noir
L’appellation "rayonnement du corps noir" illustre l’ésprit parfois contradictoire des
physiciens. En physique classique, un corps noir est un objet qui absorbe tout le rayonnement électromagnétique qu’il reçoit. Lorsqu’il devient chaud, il émet de l’énergie (d’où
l’expression "rayonnement du corps noir") mais n’est plus noir ! L’ancienne appellation,
"cavité de radiation", est nettement plus parlante.
Imaginez une sphère creuse percée d’un trou miniscule. Tout rayonnement qui arrive
sur l’ouverture est absorbé par la cavité qui agit comme un corps noir (elle n’émet pas
de lumière et paraît noire). Maintenant chau¤ons la sphère jusqu’à ce qu’elle rayonne,
37
d’abord rouge, puis blanche, puis bleue. Le rayonnement qui sort de la sphère est un
rayonnement du corps noir. Malgré la confusion que cela engendre, on applique aussi les
termes "corps noir" à ces radiations de diverses couleurs. Cet exemple illustre l’une des
caractéristiques les plus fondamentales du rayonnement du corps noir : sa couleur dépend
de sa température dont la mesure est liée à la longueur d’onde, cela signi…e que l’intensité
du rayonnement émis à chaque longueur d’onde dépend de la température de l’objet.
Cela se véri…e au quotidien. Dès les années 1890, les expériences avaient parfaitement
démontré la relation existant entre le rayonnement d’un corps noir et sa température. Le
spectre électromagnétique du corps noir révèle un pic, où l’intensité du rayonnement est
maximale. A une température …xée, ce pic reste centré sur la même longueur d’onde. Mais,
à mesure que le corps noir devient plus chaud, il se déplace vers les longueurs d’ondes
courtes (depuis l’infrarouge vers le bleu,etc.). De chaque côté du pic, le rayonnement est
très faible. Voilà qui posait un gros problème que la physique classique était bien en
peine de résoudre. Si on traite, mathématiquement parlant, les ondes électromagnétiques
de la même façon que les ondes sur l’océan, l’intensité du rayonnement émis devrait être
proportionnelle à la fréquence : plus celle-ci est grande (donc plus la longueur d’onde est
courte), plus le rayonnement devrait être important, quelle que soit la température. La
majeure partie de l’énergie émise devrait donc se trouver dans l’ultraviolet, et la courbe ne
devrait présenter aucun pic. Et pourtant, il y a un pic ! Cette "catastrophe ultraviollette"
sonna le début de la …n de la physique classique et la …t descendre de son piédestal de
représentation complète du monde physique.
2.1.3
Constante de Planck
C’est incontestablement la résolution du problème du rayonnement du corps noir qui a
marqué le début de la mécanique quantique. Au début du 20ieme siècle, Max Planck résout
en e¤et ce problème en faisant l’hypothèse que l’énergie des atomes ne peut s’échanger
que par multiples de quantités proportionnelles à la fréquence du rayonnement, selon la
38
formule désormais célèbre :
E=h
La constante h aujourd’hui appelée constante de Planck ou quantum d’action, dont il
obtient alors facilement une valeur numérique précise h = 6:626069
10
34
joules:s en
confrontant son modèle aux données expérimentales, est alors et est toujours une grandeur fondamentale en mécanique quantique, au même titre que la vitesse de la lumière
en relativité. L’illustration la plus manifeste et la plus riche en conséquences de ce phénomène se trouve probablement dans la structure de l’atome et plus précisément dans
l’organisation des électrons autour du noyau. En e¤et les électrons se répartissent en occupant les places laissées libres par les valeurs possibles des nombres quantiques liés à leur
énergie et leur moment cinétique. Cette organisation permet d’expliquer le comportement
chimique et spectroscopique des éléments naturels.
La loi de Planck pour le rayonnement du corps noir s’écrit :
B (T ) =
8 hc
5
(e
hc
kT
1)
étant la longueur d’onde, T la température en kelvin, h la constante de Plank, et c la
vitesse de la lumière dans le vide (voir [2], page 110).
L’hypothèse des quanta de Max Planck fut reprise et complétée par Einstein en 1905
pour interpréter l’e¤et photoélectrique.
2.1.4
L’e¤et photoélectrique
À la …n du 19ieme siècle, les physiciens remarquent que lorsque l’on éclaire un métal
avec une lumière, celui-ci peut émettre des électrons.
Leur énergie cinétique dépend de la fréquence de la lumière incidente, et leur nombre
dépend de l’intensité lumineuse, ce qui est di¢ cilement compréhensible au sein du modèle
ondulatoire de la lumière. En particulier, si la lumière incidente a une fréquence en
dessous d’un certain seuil, rien ne se passe, même si l’on attend très longtemps. Ce
39
résultat est incompréhensible classiquement, car la théorie de Maxwell associe aux ondes
électromagnétiques une densité d’énergie proportionnelle à l’intensité lumineuse, donc
il est classiquement possible d’accumuler autant d’énergie que l’on veut dans le métal
en l’éclairant su¢ samment longtemps et ce quelle que soit la fréquence du rayonnement
incident considéré. Il ne devrait pas y avoir de seuil !
Inspiré par Planck, Einstein proposa en 1905 une hypothèse simple expliquant le
phénomène : le rayonnement électromagnétique est lui-même quanti…é, chaque grain de
lumière "photon" étant porteur d’un quantum d’énergie E = h . Les électrons absorbant
les photons acquièrent cette énergie ; si elle est supérieure à une énergie de seuil …xe (qui
dépend uniquement de la nature du métal), les électrons peuvent sortir du métal. Les
électrons émis possèdent alors l’énergie cinétique
1 2
mv = h
2
Eseuil :
Cet article valut à Einstein le titre de docteur en physique théorique en 1905, et le prix
Nobel de physique en 1921.
2.1.5
La stabilité des atomes
Deux graves problèmes se posaient dès la …n du 19ieme siècle concernant les atomes,
constitués d’un certain nombre d’électrons ponctuels chargés négativement, et d’un noyau
quasi-ponctuel, chargé positivement :
La stabilité d’un atome est incompréhensible dans le cadre de la théorie classique.
En e¤et, la théorie de Maxwell a¢ rme que toute charge accélérée rayonne de l’énergie sous
forme d’onde électromagnétique. Dans un modèle planétaire classique, les électrons sont
accélérés sur leur orbites au sein de l’atome, et leur énergie doit diminuer : les électrons
tombent alors sur le noyau. Un calcul de la durée caractéristique de ce phénomène est de
l’ordre de 10 ns, donc les atomes classiques sont instables, ce que l’expérience contredit
manifestement !
40
De plus, la théorie classique prédit que le rayonnement émis par l’électron accéléré
possède une fréquence égale à la fréquence angulaire du mouvement. L’électron tombant
continuement sur le noyau, sa fréquence angulaire augmente continuement, et on devrait observer un spectre continu. Or la lumière émise par une lampe spectrale à vapeur
atomique présente un spectre de raies discret !
C’est le Danois Niels Bohr qui va proposer le premier un modèle semi-classique permettant de contourner ces di¢ cultés.
Le modèle de Bohr (1913)
Le modèle de Bohr de l’atome d’hydrogène est un modèle qui utilise deux ingrédients
très di¤érents :
1. Une description de mécanique classique non relativiste : l’électron tourne autour
du proton sur une orbite circulaire.
2. Deux ingrédients quantiques ad-hoc :
1. Seules certaines orbites circulaires sont permises (quanti…cation). De plus, l’électron sur son orbite circulaire ne rayonne pas contrairement à ce que prédit la théorie de
Maxwell .
2. L’électron peut parfois passer d’une orbite circulaire permise à une autre orbite
circulaire permise, à condition d’émettre de la lumière d’une fréquence bien précise, liée
à la di¤érence des énergies entre les deux orbites circulaires conformément à la relation
de Planck-Einstein.
Le mélange exotique de ces ingrédients produit des résultats spectaculaires : l’accord
avec l’expérience est en e¤et excellent.
Les améliorations de Sommerfeld (1916)
Sommerfeld va perfectionner le modèle de Bohr en deux étapes :
1. Généralisation aux orbites elliptiques.
2. Traitement relativiste du modèle à orbites elliptiques.
41
L’inclusion des e¤ets relativistes ne fera que rendre encore meilleure la comparaison
avec les résultats expérimentaux.
L’e¤et Compton (1923-1925)
Les électrons, particules chargées, interagissent avec la lumière, classiquement décrite par un champ électromagnétique. Cependant, la physique classique ne permet pas
d’expliquer la variation observée de la longueur d’onde du rayonnement en fonction de
la direction de di¤usion. L’interprétation correcte de ce fait expérimental donnée par
Compton et ses collaborateurs à l’issue d’expériences réalisées entre 1925 et 1927.
Cet e¤et, baptisé en son honneur e¤et Compton, est bien décrit en considérant le choc
photon-électron, comme un choc entre les deux particules, le photon étant porteur d’un
quantum d’énergie E = h . Les photons sont di¤usés suivant des directions variables, et
présentent une variation de longueur d’onde qui dépend de la direction de di¤usion.
2.1.6
Dualité onde-particule
Un des grands problèmes de la physique quantique est de donner des images. En e¤et,
l’être humain a besoin d’images pour ré‡échir. On ne peut se construire des images que
par analogie avec ce que l’on connaît, avec notre expérience quotidienne. Ainsi, lorsque
l’on s’imagine une onde, il nous vient à l’esprit les vagues sur l’eau ; lorsque l’on s’imagine
une particule, il nous vient à l’esprit une bille. Le problème en physique quantique est
que, pour se représenter les objets aux petites échelles ou aux échelles élevées d’énergie
(particules élémentaires), il faut faire appel aux deux notions d’ondes et de particules
solides, alors qu’elles sont opposées et incompatibles.
Une des manières les plus claires de mettre en évidence la dualité onde-particule est
l’expérience des fentes de Young. Cette expérience est connue depuis le 19ieme siècle, où
elle a d’abord mis clairement en évidence l’aspect purement ondulatoire de la lumière.
Modi…ée de manière adéquate, elle peut démontrer de manière spectaculaire la dualité
onde-corpuscule non seulement de la lumière, mais aussi de tout autre objet quantique.
42
Dans la description qui suit, il sera question de lumière et de photons mais il ne faut
pas perdre de vue qu’elle est également applicable - du moins en principe - à toute autre
particule (par exemple des électrons), et même à des atomes et à des molécules.
L’expérience consiste à éclairer par une source lumineuse un écran percé de deux
fentes très …nes et très rapprochées. Ces deux fentes se comportent comme deux sources
secondaires d’émission lumineuse. Une plaque photographique placée derrière l’écran enregistre la lumière issue des deux fentes. Ces deux sources interfèrent et forment sur la
plaque photographique ce que l’on appelle une …gure d’interférence. Cette …gure est caractéristique d’un comportement ondulatoire de la lumière. Si l’expérience en reste à ce
niveau, l’aspect corpusculaire n’apparaît pas. En fait, il est possible de diminuer l’intensité lumineuse de la source primaire de manière à ce que la lumière soit émise photon par
photon. Le comportement de la lumière devient alors inexplicable sans faire appel à la
dualité onde-corpuscule. En e¤et, si on remplace la source lumineuse par un canon qui
tire des micro-billes à travers les deux fentes (par exemple), donc de "vraies" particules,
on n’obtient aucune …gure d’interférence, mais simplement une zone plus dense, en face
des fentes. Or, dans le cas des photons, on retrouve la …gure d’interférence reconstituée
petit à petit, à mesure que les photons apparaissent sur la plaque photographique. On
retrouve donc une …gure d’interférence, caractéristique des ondes, en même temps qu’un
aspect corpusculaire des impacts sur la plaque photographique. L’interprétation de cette
expérience est di¢ cile, car si on considère la lumière comme une onde, alors les points
d’impacts sur la plaque photographique sont inexplicables ; on devrait voir dans ce cas
très faiblement, dès les premiers instants, la …gure d’interférence de plus en plus intense.
Au contraire, si on considère la lumière comme étant exclusivement composée de particules, alors les impacts sur la plaque photographique s’expliquent aisément, mais la
…gure d’interférence ne s’explique pas : comment et pourquoi certaines zones seraient
privilégiées et d’autres interdites à ces particules ?
Force est donc de constater une dualité onde-particule des photons (ou de tout autre
objet quantique), qui présentent simultanément les deux aspects.
43
Propriétés macroscopiques des ondes et des particules
Position ou interaction : 1. Particule : localisée, d’extension dé…nie.
2. Onde : délocalisée, d’extension in…nie dans le temps et l’espace.
Propagation : 1. Particule : trajectoire continue, avec une vitesse dé…nie et observable.
2. Onde : di¤usion en même temps dans toutes les directions (son "moment" virtuel
n’est pas directement observable).
Dénombrabilité et séparabilité : 1. Particule : l’objet est dénombrable, et séparable
en objets distincts.
2. Onde : l’objet est indénombrable et inséparable en objets distincts.
Ceci cause un grand trouble, une incompréhension, et entraîne fréquemment un blocage, notamment lorsque l’on se pose la question :
« comment se fait-il pour qu’une particule soit bien localisée lors d’une interaction
ou hors interaction ?»
Historique du concept
La dualité onde-particule s’est imposée au terme d’une longue histoire où les aspects
purement ondulatoires et corpusculaires ont été tour à tour privilégiés. Ces aspects ont
tout d’abord été mis en évidence avec les théories de la lumière, avant d’être étendus au
20ieme siècle à tous les objets physiques.
Huygens et Newton La première théorie complète de la lumière a été établie par
le physicien néerlandais Huygens au 17ieme siècle. Il proposait une théorie ondulatoire
de la lumière et a en particulier démontré que les ondes lumineuses pouvaient interférer
de manière à former un front d’onde se propageant en ligne droite. Toutefois, sa théorie
possédait certaines limitations en d’autres domaines et fut bientôt éclipsée par la théorie
corpusculaire de la lumière établie à la même époque par Newton.
44
Newton proposait une lumière constituée de petites particules, expliquant ainsi simplement les phénomènes de ré‡exion optique. Au prix de complications considérables,
cette théorie pouvait également expliquer les phénomènes de réfraction à travers une
lentille, et de dispersion d’un faisceau lumineux à travers un prisme.
Béné…ciant de l’immense prestige de Newton, cette théorie ne fut pas remise en question pendant plus d’un siècle.
Fresnel, Maxwell et Young Au début du 19ieme siècle, les expériences de di¤raction
faites par Young et Fresnel ont démontré l’exactitude des théories de Huygens : ces
expériences prouvèrent que quand la lumière est envoyée sur un réseau de di¤raction, on
observe un motif d’interférence caractéristique, très semblable aux motifs résultant de
l’interférence d’ondulations sur l’eau ; la longueur d’onde de la lumière peut être calculée
à partir de tels motifs.
Le point de vue ondulatoire n’a pas remplacé immédiatement le point de vue corpusculaire, mais s’est imposé peu à peu à la communauté scienti…que au cours du 19ieme
siècle, surtout grâce à l’explication en 1821 par Fresnel du phénomène de polarisation
de la lumière que ne pouvait expliquer l’autre approche, puis à la suite de l’expérience
menée en 1850 par Foucault sur la vitesse de propagation de la lumière. Ces équations
furent véri…ées par maintes expériences et le point de vue de Huygens devint largement
admis.
Maxwell, à la …n du 19ieme siècle, expliqua la lumière en tant que propagation d’ondes
électromagnétiques avec les équations de Maxwell.
Einstein et les photons En 1905, Albert Einstein réintroduisit l’idée que la lumière
pouvait avoir une nature corpusculaire . Cette vision fut contestée très longtemps, en particulier parce qu’elle ne s’accorde pas facilement avec les comportements spéci…quement
ondulatoires tels que la di¤raction.
45
De Broglie En 1924, de Broglie a¢ rma que toute matière (et pas seulement la lumière)
a une nature ondulatoire. Il associa la quantité de mouvement p d’une particule à une
longueur d’onde , appelée longueur d’onde de de Broglie :
= h=p:
C’est une généralisation de la relation E = h , car la quantité de mouvement (ou
l’impulsion) d’un photon est donnée par p = E=c où c est la vitesse de la lumière dans
le vide, et
= c= (si on remplace p et
dans l’équation de de Broglie, on retrouve la
relation E = h ).
La formule exprimée par de Broglie fut con…rmée trois ans après par Clinton J. Davisson et Lester H. Germer. Ceux-ci dirigèrent un faisceau d’électrons qui, contrairement aux
photons, ont une masse, vers un réseau de di¤raction cristallin : les motifs d’interférence
attendus purent ainsi être observés.
Des expériences semblables ont été entreprises depuis avec des protons et même avec
des molécules entières, avec notamment l’expérience d’Estermann et Otto Stern en 1929,
et la formule a été con…rmée dans tous les cas.
De Broglie reçut en 1929 le prix Nobel de physique pour son hypothèse, qui in‡uença
profondément la physique de cette époque.
La con…rmation la plus spectaculaire est celle qui a été faite en 1999 par des chercheurs
de l’Université de Vienne, qui ont fait di¤racter du fullerène (molécule C60 ). Dans cette
expérience, la longueur d’onde de de Broglie était de 2,5 pm alors que la molécule a un
diamètre d’environ 1 nm, soit 400 fois supérieur, voir [1].
Interprétation de la dualité
En mécanique quantique, la dualité onde-particule est expliquée comme ceci : tout
système quantique et donc toute particule est décrit par une fonction d’onde qui code la
densité de probabilité de toute variable mesurable (nommée aussi observable). La position
d’une particule est un exemple d’une de ces variables. Donc, avant qu’une observation
soit faite, la position de la particule est décrite en termes d’ondes de probabilité.
Les deux fentes peuvent être considérées comme deux sources secondaires pour ces
46
ondes de probabilité : les deux ondes se propagent à partir de celles-ci et interfèrent.Sur la
plaque photographique, il se produit ce que l’on appelle une réduction du paquet d’onde,
ou une décohérence de la fonction d’onde : le photon se matérialise, avec une probabilité
donnée par la fonction d’onde : élevée à certains endroits (frange brillante), faible ou
nulle à d’autres (franges sombres).
Cette expérience illustre également une caractéristique essentielle de la mécanique
quantique : jusqu’à ce qu’une observation soit faite, la position d’une particule est décrite
en termes d’ondes de probabilité, mais après que la particule est observée (ou mesurée),
elle est décrite par une valeur …xe.
La manière de conceptualiser le processus de la mesure est l’une des grandes questions
ouvertes de la mécanique quantique. L’interprétation standard est l’interprétation de
Copenhague, mais la théorie de la décohérence est aussi de plus en plus considérée par
la communauté scienti…que.
La métaphore du cylindre
La métaphore du cylindre est l’exemple d’un objet ayant des propriétés apparemment
inconciliables. Il serait à première vue déroutant d’a¢ rmer qu’un objet a à la fois les
propriétés d’un cercle et d’un rectangle : sur un plan, un objet est soit un cercle, soit
un rectangle. Mais si l’on considère un cylindre : une projection dans l’axe du cylindre
donne un cercle, et une projection perpendiculairement à cet axe donne un rectangle. De
la même manière, « onde » et « particule » sont des manières de voir les choses et non
les choses en elles-mêmes.
Notons par ailleurs que dans la description mathématique de la physique quantique,
le résultat de la mesure est similaire à une projection géométrique (notion d’observable :
l’état de l’objet est décrit par des nombres que l’on peut voir comme des coordonnées
dans une base vectorielle, et en géométrie euclidienne, les coordonnées sont la projection
de l’objet sur les axes de référence).
C’est l’absence d’équivalent macroscopique sur quoi nous pourrions nous référer qui
47
nous force à penser les objets quantiques comme possédant des attributs contradictoires.
Il serait inexact de dire que la lumière (comme tout autre système quantique d’ailleurs)
est à la fois une onde et une particule, ce n’est ni l’un, ni l’autre. Le manque d’un
vocabulaire adéquat et l’impossibilité de se faire une représentation mentale intuitive
des phénomènes à petite échelle nous font voir ces objets comme ayant une nature, par
elle-même, antinomique.
Pour lever cet apparent paradoxe et insister sur l’imperfection de nos concepts classiques d’onde et de corpuscule, les physiciens Jean-Marc Lévy-Leblond et Françoise Balibar ont proposé d’utiliser le terme de « quanton » pour parler d’un objet quantique. Un
quanton n’est ni une onde, ni un corpuscule, mais peut présenter les deux aspects selon
le principe de complémentarité de Bohr.
La gnoséologie cartésienne utilise cette idée pour démontrer que nos sens nous trompent.
Descartes prend cet exemple : « j’aperçois une tour au loin, elle est carrée, je m’en approche, elle est ronde » . Descartes utilise la même métaphore : des objets ou des formes
géométriques di¤érents ayant les propriétés de l’un et de l’autre (mais ils ne sont ni l’un,
ni l’autre).
2.1.7
État quantique et observable
L’état d’un système physique décrit tous les aspects de ce système, dans le but de
prévoir les résultats des expériences que l’on peut réaliser. Le fait que la mécanique
quantique soit non déterministe entraîne une di¤érence fondamentale par rapport à la
description faite en mécanique classique : alors qu’en physique classique, l’état du système
détermine de manière absolue les résultats de mesure des grandeurs physiques, une telle
chose est impossible en physique quantique et la connaissance de l’état permet seulement
de prévoir, de façon toutefois parfaitement reproductible, les probabilités respectives des
di¤érents résultats qui peuvent être obtenus à la suite de la réduction du paquet d’onde
lors de la mesure d’un système quantique. Pour cette raison, on a coutume de dire qu’un
système quantique peut être dans plusieurs états à la fois. Il faut en réalité comprendre
48
que le système est dans un état quantique unique, mais que les mesures peuvent donner
plusieurs résultats di¤érents, chaque résultat étant associé à sa probabilité d’apparaître
lors de la mesure.
L’état doit donc être vu comme un représentant de toute l’information disponible sur
le système : une description de l’histoire du système permettant de calculer les probabilités de mesure. Dans le débat philosophique concernant l’interprétation de la mécanique quantique, certaines approches telle que l’interprétation de Copenhague considèrent
d’ailleurs que l’état quantique n’est pas un élément de réalité au sens qu’Einstein donnait
à ce terme, mais simplement un intermédiaire de calcul utile pour prévoir les mesures
(l’état quantique n’a pas de sens physique avant l’opération de mesure. Seul l’état projeté, après la mesure a un sens physique. Ainsi selon cette interprétation, il est vain de
rechercher une signi…cation physique à ce qui n’est et ne doit rester qu’une formule mathématique) ; d’autres approches font appel à la notion de décohérence quantique pour
décrire le processus mis en oeuvre lors d’une mesure quantique.
L’une des conséquences de la nature aléatoire des mesures quantiques est que l’état
ne peut pas être assimilé à un ensemble de propriétés physiques qui évoluent au cours
du temps. En mécanique quantique, l’état et les grandeurs physiques sont deux concepts
séparés et sont représentés par deux objets mathématiques di¤érents. Dirac a montré
qu’il était équivalent de faire porter l’évolution temporelle sur l’état quantique ou sur
les grandeurs physiques, appelées observables en mécanique quantique qui sont des opérations de mesure (c-à-d obtenir la valeur ou un intervalle de valeurs d’un paramètre
physique, ou plus généralement une information sur un système physique).
En mécanique quantique, il n’est pas possible de supposer que les grandeurs physiques
telles que la position ou l’impulsion qui aient une valeur dé…nie que l’on puisse mesurer
sans perturber le système. Au lieu de cela, les observations e¤ectuées sur un système
vont modi…er son état, de sorte que les résultats des mesures ultérieures vont dépendre
de l’ensemble des mesures e¤ectuées précédemment. L’état du système doit donc être
dé…ni indépendamment des grandeurs physiques observables et plutôt être vu comme
49
une description de ce qui a été fait sur le système ainsi que des résultats obtenus lors
des mesures. Pauli quali…ait « d’idéalisation de l’observateur détaché » le point de vue
selon lequel l’état se résume à une liste de grandeurs physiques préexistant à la mesure.
Mathématiquement, cette distinction se traduit par l’utilisation de deux objets di¤érents
pour représenter l’état et les observables du système. De plus, on doit composer avec
la nature irréductiblement aléatoire des résultats de mesure en mécanique quantique.
Considérons par exemple l’équivalent quantique d’un point matériel, c-à-d une particule
sans spin. Les grandeurs physiques observables, ou plus simplement les observables sont
en e¤et les mêmes dans les deux cas : la position, l’impulsion, l’énergie cinétique, l’énergie
potentielle, l’énergie totale. . . Supposons que l’on soit capable de préparer notre particule
dans un état
bien déterminé. On peut concevoir une expérience permettant de mesurer
la position, par exemple en éclairant la particule, qui donnera comme résultat : la particule
est en x1 . On pourrait alors en conclure que la position d’une particule préparée dans
l’état
est x1 . Cependant, si l’on réitère l’expérience en plaçant à nouveau la particule
dans l’état , on obtient une autre position x2 6= x1 ! Sauf un cas particulier, il en serait
de même avec toute autre grandeur observable.
Au cours du temps, les physiciens ont acqui la conviction que ce fait expérimental n’était pas dû à une incertitude expérimentale lors de la mesure, ou encore à une
préparation aléatoire d’une fois à l’autre (dans un état ' 6=
), mais plutôt que l’état
ne détermine pas les résultats de mesure de manière certaine. Ceci est particulièrement
illustré lors d’expériences mettant en évidence la complémentarité quantique, où malgré
des mesures permettant de préparer un état précis, les résultats des mesures ultérieures
restent aléatoires.
En traitant statistiquement les valeurs x1 , x2 ... obtenues lors de mesures répétées
de la position, il apparaît cependant que certaines sont obtenues plus fréquemment que
d’autres. Ainsi, si la valeur obtenue à l’issue de chaque mesure individuelle n’est pas
connue, l’état détermine la distribution de probabilité associée à chacune des observables
du système, et sa connaissance nous permet de faire des prévisions probabilistes sur les
50
résultats de mesure. Il est alors possible de dé…nir des grandeurs statistiques telles que
la valeur moyenne de la position ou encore l’écart type de la position (notées hxi et
respectivement dans le cas de la position, et hAi et
A quelconque,
x
A dans le cas d’une observable
A étant également appelée incertitude sur la grandeur A lorsque la
particule est dans l’état ).
Un cas particulier intéressant correspond à des états pour lesquels l’incertitude
A
est nulle pour une des observables A. On retrouve alors la prévision de la mécanique
classique : dans un de ces états, la mesure de A donnera toujours le même résultat. Pour
distinguer ces états là des autres états, ils sont appelés états propres de l’observable A.
Les états propres de l’énergie totale présentent l’intérêt de ne pas évoluer au cours du
temps : si une particule est dans un état d’énergie donnée, elle restera dans cet état par
la suite.
En…n, un dernier cas particulier permet de préciser ce qui est sous-entendu lorsque
l’on dit qu’une particule est dans deux états simultanément. On peut imaginer un état
où la distribution de probabilité de la grandeur A est piquée sur deux valeurs (appelée
en mathématique distribution de Dirac). En fait, la particule n’est en réalité que dans
un seul état, mais cet état quantique donnera deux résultats possibles lors d’une mesure
de A.
2.1.8
Formulation mathématique
La formulation mathématique de la mécanique quantique, dans son usage général,
fait largement appel à la notation bra-ket de Dirac, qui permet de représenter de façon
concise les opérations sur les espaces de Hilbert utilisés en analyse fonctionnelle. Cette
formulation est souvent attribuée à John von Neumann.
Soit H un espace séparable de Hilbert complexe qui correspond à un système quantique.
51
Formulation mathématique d’observable
Une observable est opérateur linéaire d’un sous-espace dense de H vers H . Si cet
opérateur est continu, alors cette transformation peut être prolongée de façon unique à
une transformation linéaire bornée de H vers H. Par tradition, les choses observables
sont identi…ées aux opérateurs.
Dans ce cadre, le principe d’incertitude de Heisenberg devient un théorème au sujet
des opérateurs non-commutatifs. En outre, on peut traiter des observables continues et
discrètes.
Formulation mathématique d’état
Un état est un vecteur dans H ; l’espace de Hilbert est un espace de fonctions d’onde
de carré intégrables (l’espace des états).
Ont dé…nit sur H un produit scalaire hermitien h' j
i entre deux vecteurs ' et
.
En raison de l’importance de ces produits scalaires, on utilise la notation bra-ket qui
représente les états quantiques.
Ket Soit un vecteur
de H, on le note j i et il est appelé vecteur-ket ou ket. Deux
kets forment un espace vectoriel linéaire. Ainsi, si c1 et c2 sont des nombres complexes
quelconques et
1
et
2
sont deux kets :
j i = c1 j
1i
+ c2 j
2i
alors j i est un ket.
Bra On associe à chaque ket de H, un nombre complexe qui est l’image du ket par une
fonctionnelle linéaire qui représente l’opérateur de projection associé. L’ensemble de ces
fonctionnelles linéaires constitue un espace vectoriel H , dit « espace dual de H » . On
appelle vecteur-bra ou bra un élément de cet ensemble et on le note h' j.
52
Remarque 17 L’espace des états dépend du système considéré. Par exemple, dans le cas
le plus simple où le système n’a pas de spin ou de structure interne, les états quantiques
R
sont des fonctions : R3 ! C; (x; y; z) 7! (x; y; z) telles que l’intégrale R3 j (r)j2 dr
converge. Dans ce cas,
est appelée la fonction d’onde du système.
D’autre part, lorsque l’on associe deux systèmes pour en faire un seul, l’espace des
états de ce système composé est le produit tensoriel des espaces des états associés aux
deux sous-systèmes. (Dans le cas de deux particules identiques, il y a une restriction
additionnelle, liée aux spin).
On retrouve le déterminisme de la mécanique classique, exprimé par une E.D.O, dans
l’évolution de l’état quantique. C-à-d que l’on peut calculer de manière déterministe comment l’état d’un système va évoluer au cours du temps (grâce à l’équation de Schrödinger),
sauf lorsqu’il y a une mesure de l’état de notre système, auquel cas l’évolution n’est plus
déterministe, mais probabiliste même lorsqu’il s’agit d’une seule particule et pourtant il
y a bien un laplacien et une dérivée en temps imaginaire, par contre, en mécanique classique, l’équation correspondante qui est l’équation de la chaleur, représente véritablement
un gaz, c-à-d tout un système de particules.
Il s’agit là d’une di¤érence majeure avec la mécanique classique, qui découle du postulat de réduction du paquet d’onde et qui permet de donner une interprétation probabiliste
aux états quantiques.
États propres et interprétation probabiliste des états quantiques Dans les
années 1920, Max Born a développé l’interprétation statistique des états quantiques pour
laquelle il a reçu le prix Nobel en 1954. Pour comprendre comment fonctionne cette
interprétation, supposons qu’un système quantique se trouve dans un état j
i et que
l’on veuille mesurer une observable A du système (énergie, position,
spin, ...). Les valeurs propres de A sont notées
i
que l’on supposera non dégénérées
pour simpli…er et les vecteurs propres correspondants notés j ai i qui représentent les états
propres (ou purs) de A.
53
Le sens de cet opérateur observable est de donner la possibilité de décomposer l’état
j i en une combinaison linéaire d’états propres, chacun de ces états étant un état possible
résultant de l’opération de mesure.
A =) j i = c1 j a1 i + c2 j a2 i + ::: + cn j an i + :::
ci = hai j i étant le coe¢ cient complexe de cette combinaison linéaire.
Comme le postule le principe de réduction du paquet d’onde, la mesure de A ne
peut donner comme résultat que l’un des
i,
et la probabilité d’obtenir le résultat
i
est
jhai j ij2 (en supposant que j i et j ai i soient normalisables). Supposons que la mesure
donne comme résultat
j,
le système est passé lors de la mesure et de façon instantanée
de l’état j i à l’état j aj i.
Remarque 18 Les états purs avant la mesure s’expriment par j i = ci j ai i.
On voit dès lors l’interprétation que l’on peut faire des produits scalaires ha j i, où
j ai est un état quelconque.
Remarque 19 Un état peut être pur selon une observable donnée, et être superposé selon
une autre observable. C’est d’ailleurs la raison fondamentale du principe d’incertitude de
Heisenberg : un état quantique qui est pur pour une observable (et qui possède donc une
valeur précise pour cette observable), peut avoir tout un ensemble de valeurs possibles pour
une autre observable. Cela se traduit mathématiquement par le fait que si deux opérateurs
commutent ils peuvent être diagonalisés par rapport à la même base de vecteurs propres,
voir [13].
Cet opérateur doit posséder les propriétés suivantes pour pouvoir être quali…é d’observable :
A doit être un opérateur linéaire comme on l’a dit.
Les valeurs propres de A, autrement dit les résultats possibles de l’opération de
mesure, doivent être des nombres réels, car A est un opérateur hermitien (auto-adjoint).
54
Les vecteurs propres de A doivent être orthogonaux. Ceci est fondamental pour
une observable car une fois qu’un état quantique possède une valeur dé…nie, celle-ci doit
rester la même si on applique de nouveau le même appareil de mesure. La probabilité de
trouver, comme résultat d’une seconde application de l’appareil, un autre vecteur propre
doit donc être nulle. Ceci est assuré ssi les vecteurs propres sont orthogonaux.
Les vecteurs propres de A doivent former une base de H (Une observable donnée
correspond à une base donnée de H). Cela assure que tout état quantique est mesurable
par cet appareil. C’est cette base qui caractérise l’observable. Passer d’une observable
à une autre (par exemple de la position à l’impulsion) équivaut à examiner le vecteur
représentant l’état quantique dans une base ou dans une autre.
Les vecteurs propres de A doivent être normalisables. En e¤et, si un vecteur propre
n’est pas normalisable, la probabilité d’obtenir cet état propre comme résultat d’une
mesure sera nulle. Cette dernière propriété n’est pas strictement indispensable pour que
A soit une observable théorique, mais elle l’est pour que A soit une observable correspondante à une opération de mesure réelle. Par exemple, la position ou l’impulsion ne
sont pas des observables normalisables (ce qui est logique, car étant des variables continues, la probabilité d’obtenir une position ou une quantité de mouvement précise est
e¤ectivement nulle).
!
Exemples d’observables La position x = (x1 ; x2 ; x3 ), l’hamiltonien H (associé à
l’énergie du système) et l’impulsion
!
P =
!
ihr = (px1 ; px2 ; px3 );
(2.1)
Observables canoniquement conjuguées Une paire d’observables est dite canoniquement conjuguées si son commutateur est non-nul. Selon le principe d’incertitude de
Heisenberg, il est impossible de mesurer ou de préciser les valeurs des deux observables
simultanément. L’exemple le mieux connu est la position et le moment.
55
Observables non normalisables : utilisation de projecteurs Dans le cas où les
vecteurs propres de l’opérateur ne sont pas normalisables, il est indispensable, pour pouvoir calculer des probabilités utilisables, d’employer un autre type d’observable : des
projecteurs.
L’observable A, non normalisable, ayant un nombre in…ni de valeurs propres, peut
être remplacé par un ensemble …ni de projecteurs Ei tq :
Ei2 = Ei (dé…nition d’un projecteur).
E1 + E2 + ::: + En = I, I étant l’opérateur identité sur H.
Ei Ej = 0 si i 6= j (projecteurs orthogonaux).
Cet ensemble de projecteur est appelé ensemble complet de projecteurs orthogonaux.
On a alors : A = a1 E1 + a2 E2 + ::: + an En
L’opérateur est alors dégénéré, dans le sens où les espaces propres (sous-espaces vectoriels correspondants à une valeur propre donnée) des projecteurs possèdent plus d’une
dimension.
Le cas typique et très utilisé d’opérateur dégénéré utilisant les projecteurs est la
question OUI/NON où n = 2, et où les valeurs propres de l’opérateur sont …xées à 1
pour "OUI" et 0 pour "NON". Cette observable est alors dé…nie par un seul projecteur
E, et tout état quantique j i peut s’écrire comme : j i = E j i + (I
E) j i
Par exemple, pour l’observable "position", on peut calculer un opérateur dont la
valeur propre est 1 si la position est dans une certaine zone, et 0 sinon.
Le cinquième postulat (voir [4], page 37) ne s’applique pas à un opérateur dégénéré.
Il est remplacé dans ce cas par le postulat de projection, voisin, qui stipule que :
Si le résultat d’une mesure d’un opérateur dans un état quantique j
i est une
certaine valeur propre ai (correspondant au projecteur Ei ), alors l’état propre du système
est Ei j i.
La probabilité d’obtenir la valeur propre ai est jh j Ei j ij2 .
56
Superposition d’états, intrication et paradoxe de la mesure Si j ai et j bi sont
deux états possibles du système, la dé…nition d’un espace vectoriel fait que toute combinaison linéaire de ces états sera un état possible du système. Pour illustrer l’étrangeté
de ces superpositions d’états, Erwin Schrödinger a avancé le paradoxe du chat de Schrödinger : que penser d’un chat que l’on aurait mis dans la superposition d’état
p
p
2
2
: j vivanti +
: j morti?
2
2
Est-ce le fait qu’il y ait un observateur présent pour tenter de faire une mesure qui
réduit le paquet d’onde instantanément à un et un seul des résultats possibles de la
mesure ? Quelle est la particularité qui fait qu’un système quantique n’obéisse plus à
l’équation déterministe de Schrödinger lors de l’interaction avec un appareil de mesure
(ou plus généralement avec un objet macroscopique) ?
Bref, le principe de réduction du paquet d’onde dérange et contribue beaucoup à la
réputation de la mécanique quantique d’être contre-intuitive. Après avoir suivi l’école
de Copenhague pendant des dizaines d’années, la majorité des physiciens pense aujourd’hui que l’intrication (en physique quantique, les états de deux systèmes peuvent être
"intriqués", c-à-d corrélés d’une façon étroite et particulière) et la décohérence jouent
un grand rôle dans l’explication du phénomène de réduction du paquet d’onde. Expérimentalement, il devient possible aujourd’hui de réaliser les expériences de pensée au
début du 20ieme siècle et des groupes de recherche tentent de réaliser de petits « chats
de Schrödinger » , c-à-d des objets mésoscopiques (L’échelle mésoscopique est une échelle
intermédiaire entre l’échelle microscopique et l’échelle macroscopique) placés dans une
superposition d’états pour étudier leur évolution. Pour décrire l’état quantique d’un objet intriqué, l’approche présentée ici à partir de la notation bra-ket n’est pas su¢ sante,
et il convient d’utiliser le formalisme de la matrice densité.
57
2.1.9
Principe d’incertitude de Heisenberg
En mécanique quantique, la valeur précise des paramètres physiques tq la position
ou l’impulsion n’est pas déterminée tant qu’elle n’est pas mesurée. Seule la distribution
statistique de ces valeurs est parfaitement déterminée à tout instant. Cela peut mener au
point de vue (qui est un abus de langage) selon lequel un objet quantique pourrait être "à
plusieurs endroits en même temps". Un point de vue plus juste serait de dire que l’objet
quantique n’a pas de localisation dé…nie comme de coutume en physique classique tant
que la position n’est pas mesurée. Cela dit, le paradoxe n’est qu’apparent. Il vient du fait
que les grandeurs scalaires classiques sont insu¢ santes pour décrire la réalité quantique.
On doit faire appel à des fonctions d’onde qui sont des vecteurs appartenant à un espace
de Hilbert de dimension in…nie. Les grandeurs classiques ne sont donc en fait que des
vues partielles de l’objet, potentiellement corrélées.
Interprétation probabiliste
Le nombre complexe ci permet de calculer la probabilité pi d’obtenir une valeur ai de
l’observable A :
pi = jci j2 = ci ci :
La mesure de la grandeur est une v.a. avec une espérance E(A) et un écart type
(A): La mesure est donc de nature probabiliste, ce qui implique beaucoup de paradoxes
apparents en logique aristotélicienne. L’un d’entre eux a été immédiatement remarqué
par Heisenberg : l’opérateur position x et l’opérateur quantité de mouvement p ne sont
pas commutatifs. En e¤et leur commutateur vaut :
[x; p] = xp
px = ih:
Alors on ne peut pas mesurer simultanément ces deux grandeurs observables qui sont
dites canoniquement conjuguées. La notion d’espace des phases disparaît en mécanique
quantique, et l’objet quantique est en fait complètement décrit par sa fonction d’onde.
58
Les grandeurs scalaires utilisées en physique classique sont insu¢ santes et inadéquates.
L’évolution déterministe de Newton est remplacée par une équation d’évolution déterministe de Schrödinger, permettant de prédire de façon certaine l’évolution temporelle
des fonctions d’onde (dont le module carré est la probabilité, la phase n’étant pas connue
a priori).
Inégalité de Heisenberg
Des mesures répétées de la position et de l’impulsion donneront des résultats en
général di¤érents à chaque mesure : chaque échantillon de valeurs sera caractérisé par
un écart type :
x
pour la position, et
p
pour l’impulsion. Le théorème de Heisenberg
démontre que :
h
;
2
x: p
où h est la constante de Planck réduite h=
h
2
. Cette notion est fréquemment vulga-
risée par des phrases du type : « Il est impossible de connaître à la fois la position et la
quantité de mouvement d’un objet de manière précise » . En e¤et, si par exemple la position d’une particule est exactement connue, la dispersion en position est identiquement
nulle :
x
= 0. L’inégalité de Heisenberg implique alors que
p
= 1 : la dispersion en
impulsion doit être maximale.
Principe général de Heisenberg et quanti…cation de H. Weyl
Le théorème de Heisenberg ne s’applique pas seulement au couple de valeurs position et quantité de mouvement. Dans sa forme générale, il s’applique à chaque couple
d’opérateurs A et B ne commutant pas (ou canoniquement conjuguées), pour lequel le
commutateur :
BA 6= 0:
C = AB
Rappelons brièvement qu’il s’agit ici de quanti…cation. En mécanique classique, on
possède des variables fondamentales à l’aide desquelles on construit des objets mécaniques
59
tq l’énergie, le moment etc. . On sait que ces objets deviennent des opérateurs en mécanique quantique. Partons du formalisme hamiltonien avec ses variables de l’espace des
phases (q; p) et ses observables mécaniques f (q; p). La quanti…cation revient à chercher
un moyen de remplacer cette fonction mécanique f (q; p) par l’opérateur convenable qui
nous donnera ensuite les couples canoniquement conjugués et la relation d’incertitude.
Parallèlement aux travaux d’Heisenberg, Schrödinger etc. , Hermann Weyl a proposé
la méthode suivante pour quanti…er une fonction f (q; p). Cette méthode est à l’heure
actuelle très utilisée en théorie des opérateurs pseudo-di¤érentiels. Une autre manière
équivalente de comprendre la méthode de Weyl est géométrico-algébrique, caractéristique de l’école indinenne, et concerne la théorie des représentations des groupes, voir
page 134 dans [20] ou [23]. Il s’agit d’abord d’écrire f (q; p) comme une "série de Fourier"
à l’aide de la transformée de Fourier inverse
f (x; ) =
Z
ensuite on postule simplement
F (X; D) =
Z
exp i(xq + p)fb(q; p) dqdp;
exp i(xX + D)f (x; ) dxd :
Nous avons exposé cette quanti…cation d’un point de vue analytique. Il existe aussi un
point de vue géométrique bien exposé dans [20] et [23].
Relation temps-énergie
Il existe également une relation d’incertitude portant sur l’énergie d’une particule et
la variable temps. Ainsi, la durée
Eà
t nécessaire à la détection d’une particule d’énergie
E près véri…e la relation :
E: t
h;
Cependant, la déduction de cette inégalité énergie-temps est assez di¤érente de celle
60
des inégalités position-impulsion . En e¤et, si le Hamiltonien est bien le générateur des
translations dans le temps en mécanique hamiltonienne, indiquant que le temps et l’énergie sont canoniquement conjugués, il n’existe pas d’opérateur temps en mécanique quantique ( théorème de Pauli), c-à-d qu’on ne peut pas construire d’opérateur T qui obéirait
à une relation de commutation canonique avec l’opérateur Hamiltonien H :
[H; T ] = ih,
ceci pour une raison très fondamentale : la mécanique quantique a en e¤et été inventée pour que chaque système physique stable possède un état fondamental d’énergie
minimum.
2.1.10
Équation de Schrödinger
L’état à l’instant t d’un système quantique est décrit par j (t)i de H qui représente
les densités de probabilités de résultats de toutes les mesures possibles d’un système.
L’évolution temporelle de j (t)i est décrite par l’équation de Schrödinger
!
p2
d
j (t)i + V (t; !
x ) j (t)i = ih j (t)i;
2m
dt
où i est l’unité imaginaire, !
x est l’observable position, !
p est l’observable impulsion
!
p2
et H = 2m
+ V (t; !
x ) est l’hamiltonien, dépendant du temps en général, l’observable
correspondant à l’énergie totale du système.
Contrairement aux équations de Maxwell gérant l’évolution des ondes électromagnétiques, l’équation de Schrödinger est non relativiste. Cette équation est un postulat (voir
[2], page 404). Elle a été supposée correcte après que Davisson et Germer eurent con…rmé
expérimentalement l’hypothèse de Louis de Broglie.
61
2.2
PROBABILITÉS NON COMMUTATIVES
Comme les E.D.O. sont issues de la mécanique de Newton, les probabilités non commutatives sont issues de la mécanique quantique. Les objets quantiques sont tellement
petits qu’on a besoin d’un "intermédiaire" qui lie deux mondes à des échelles très di¤érents.
La mesure d’une grandeur quantique est de nature probabiliste et alors la formulation
probabiliste de la mécanique quantique est essentielle. Les probabilités classiques ne sont
pas adaptées à la description des phénomènes aléatoires de la mécanique quantique dans
la conception classique des lois de probabilités, lorsqu’un évènement peut se produire
de deux façons di¤érentes incompatibles l’une de l’autre, les probabilités s’additionnent.
Tel n’est pas le cas en mécanique quantique, où la probabilité d’un évènement est liée à
une amplitude de probabilité susceptible d’interférer, y compris de façon destructive qui
travaille sur les v.a. non commutatives.
K. Parthasarathy (voir [20]) est parmi ceux qui ont introduit et développé la théorie
quantique ou non commutative du calcul stochastique dans les années 1980.
Soit P(H) l’ensemble des opérateurs de projections sur les sous espaces fermés de
H, si le système est dans un état , alors l’espace de probabilité quantique est l’espace
(H; P(H); ), ce qui est très di¤érent du cas classique ( ; F; P ).
Toutefois si l’on se donne une seule observable ou un ensemble de plusieurs observables
qui commutent, alors on peut diagonaliser simultanément ces observables et construire
avec les valeurs propres une variable aléatoire vectorielle sur un espace de probabilité
classique. En revanche, si les observables ne commutent pas, il est impossible d’avoir une
interprétation classique. Les algèbres abstraites par exemple les C -algèbres et les algèbres
de Von Neumann) o¤rent un cadre plus général d’étude que les algèbres d’opérateurs
sur un espace de Hilbert. Néanmoins il existe un théorème de représentation d’algèbre
abstraite dans une algèbre d’opérateurs sur un espace de Hilbert. C’est surtout un résultat
théorique car l’espace de Hilbert en question est inaccessible en pratique.
62
2.2.1
Rappels d’analyse fonctionnelle
Espace de Hilbert
Un espace de Hilbert est un espace préhilbertien complet, c’est-à-dire un espace de
Banach dont la norme jj:jj découle d’un produit scalaire ou hermitien < ; > par la formule
p
jjxjj = < ; >. C’est la généralisation en dimension quelconque d’un espace euclidien
ou hermitien.
Espace de Hilbert séparable
Dé…nition 19 Une suite fen gn 1 est dite totale dans H si le seul vecteur qui est perpendiculaire à tous les vecteurs de la suite est le vecteur nul (la suite est dense dans H), de
plus si cette suite est orthonormée elle forme une base hilbertienne.
Dé…nition 20 Si l’espace de Hilbert admet une base hilbertienne,on dit qu’il est séparable.
Opérateur borné
De…nition 10 Un opérateur linéaire est dit borné si son domaine DA = H et si
kAk = sup kA k < 1:
k k=1
Remarque 20 L’ensemble des opérateurs lineaires bornés et noté B(H).
L’adjoint d’un opérateur
Dé…nition 21 L’adjoint d’un opérateur borné A de H est dé…ni par l’unique opérateur
A qui veri…e
h ; A'i = hA
; 'i; 8';
63
2 H:
Dé…nition 22 Lorsque A n’est pas borné, on dé…nit l’adjoint de l’opérateur (A; DA )
comme le couple (A ; DA ) ssi pour
2 DA la forme linéaire ' ! h ; A'i de DA dans
C est bornée (ou continue en 0).
Remarque 21 Si H est de dimension …nie et si A a une représentation matricielle
notée A, alors la matrice de l’opérateur adjoint est la transposée de la matrice complexe
T
conjuguée A = A .
Opérateur auto-adjoint
Dé…nition 23 Un opérateur (A; DA ) est dit auto-adjoint s’il coïncide avec (A ; DA ).
L’ensemble de ces opérateurs est noté O (H).
Opérateur de projection
Dé…nition 24 Les projections sur H sont des opérateurs auto-adjoints bornés et qui
véri…ent
P2 = P = P ;
et qui sont des norme 1.
Remarque 22 Les projections (on confondra souvent un sous espace fermé E et l’opérateur de projection PE sur E) correspondent aux événements de l’espace quantique et
on notera leur ensemble par P(H).
Ensemble résolvant
Dé…nition 25 L’ensemble résolvant est l’ensemble (A) des
2 C tq A
I soit in-
versible c-à-d une bijection de DA sur H.
Remarque 23 Par le théorème du graphe fermé, si
opérateur de B(H).
64
2 (A), alors (A
I)
1
est un
Spectre d’un opérateur
Dé…nition 26 Le spectre de A est l’ensemble
sp(A) = C n (A):
Remarque 24 Ce spectre se compose d’éléments discrets et de zones continues. Un point
2 C est une valeur propre de A s’il existe
2 DA ;
6= 0 tq A =
:
Remarque 25 Le spectre discret de A est l’ensemble spdis (A) de toutes les valeurs
propres isolées de multiplicité …nie. Son complémentaire spess (A) = sp(A) n spdis (A) est
appelé spectre essentiel de A ss’il existe une suite orthonormée
n
2 DA (k
n
= 1k ; h
n;
0 si n 6= m) tq
lim k(A
n!1
I)
nk
= 0:
Groupe à un paramètre et théoème de Stone
Dé…nition 27 On suppose que le système est dans l’état
0
à l’instant initial t = 0. Un
groupe à un paramètre est une famille Ut d’opérateurs unitaires fortement continus en t
c-à-d pour tout
2H
lim Us = Ut ;
s !t
et tq Ut+s = Ut Us pour tout s; t 2 R: Si A est auto-adjoint de H alors la famille Ut = eitA
est un groupe à un paramètre la réciproque est connue sous le nom de théorème de Stone.
Théorème 5 Si Ut est un groupe à un paramètre, alors il existe un opérateur A autoadjoint de H tq Ut = eitA et par le théorème spectral
Ut =
Z
eit dE( )
Passons à présent aux notions de probabilités quantiques. Soit H un espace de Hilbert
de dimension …nie. Un système quantique est un mélange statistique : le système est dans
65
mi
=
l’état j
1i
avec la probabilité p1 , j
2i
avec la probabilité p2 , etc. Le système est dans
un cas pur s’il est dans l’état j i unique presque sûrement.
Opérateur densité
On dé…nit l’opérateur densité qui est un opérateur auto-adjoint ( =
=
X
i
pi j
i ih
i
) par
j;
dans la cas d’un mélange et
=j ih j;
dans le cas pur. Il existe une base dans laquelle l’opérateur densité est diagonal =
P
diag (p1 ; :::; pn ) sa trace est la somme des probabilités tr( ) = pi = 1.
i
P
Dans l’état , toute observable A a une résolution spectrale A =
i Ai , où les i sont
i
les valeurs propres de A et Ai l’événement que A prenne la valeur
i.
La probabilités que
P
A prenne la valeur i dans l’état est donc égale à tr( Ai ). En particulier,
tr( Ai ) = 1.
i
La valeur moyenne de A est donc
hAi =
X
i tr(
Ai ) = tr( A):
i
Pour toute fonction h borélienne bornée de R dans R, la valeur moyenne vaut
hh(A)i = trh h(A)i:
La fonction caractéristique de A dans l’état
est la fonction
(t) = tr( eitA ):
66
(2.2)
Théorème de Gleason
Soit H un espace de Hilbert, dim (H)
3, et P (H) l’ensemble des projections sur
H (ensemble des événements de H). Pour toute distribution de probabilité
sur P (H)
il existe un unique opérateur T sur H tq
(j uihu j) = hu; T ui;
pour tout vecteur unitaire u de H.
Pour tout opérateur P de P (H), il existe alors une famille orthonormale (uj ) de H
P
et des scalaires pj positifs tq
pj = 1 pour lesquels on a
(P ) =
X
j
2.2.2
pj huj ; P uj i:
Espace de Fock
Il s’agit de ce qu’on appelle la 2ieme quanti…cation qui présente une grande importance
en physique théorique grâce aux travaux de Fock. Essayons de donner une idée intuitive
à ce concept. Donner une probabilité à un événement revient, selon l’école orthodoxe
de Kolmogorov et Von Mises, à pouvoir reprendre l’expérience aléatoire dans les mêmes
conditions et former le fameux rapport : nombre de cas favorables sur les cas possibles.
Par exemple, considérons le cas de la durée de vie d’une personne prise au hasard (très
important pour les assureurs !). Pour dé…nir cette loi, on devrait ressusciter une personne
après sa mort pour savoir combien elle vivra encore, encore et encore.... Comme ceci n’est
pas réalisable en pratique, on prendra un échantillon de personnes qu’on juge représenter toutes ces vies après la mort, mais simultanément. On prendra garde à choisir un
échantillon aussi homogène que possible. Ainsi, l’étude d’une particule revient elle à la
considération d’un paquet de particules toutes identiques à la première. C’est la raison
pour laquelle on entend souvent dire que la « première quanti…cation » est équivalente
à la « seconde quanti…cation » .
67
Noyau dé…ni positif et produit tensoriel de l’espace de Hilbert
On suppose que ( i ; Fi ), 1
n sont des espaces probabilisables qui décrivent les
i
résultats élémentaires et les événements concernant n systèmes di¤érents en probabilités
classiques. Pour les rassembler en un seul système et un seul espace probabilisable, on
prend leur produit cartésien ( ; F) d’où
=
1
:::
n,
F = F1
petite tribu qui contient tous les rectangles de la forme F1
F2
:::
:::
Fn , la plus
Fn , Fj 2 Fj
pour tout j. Maintenant on veut faire la même déscription en probabilités quantiques
quand on a n systèmes d’où les événements qui concernent le j ieme système sont décrit
par l’ensemble P(Hj ) de toutes les projections sur Hj ,
j
= 1; 2; :::; n. Une tentation
statistique nous guide pour dé…nir le produit tensoriel des espaces de Hilbert et pour le
dé…nir on introduit la notion de noyau positif.
Dé…nition 28 Soit X un ensemble quelconque et soit K : X
qui satisfait :
X
i
j K(xi ; xj )
X
! C une fonction
0
i;j
pour tout
i
2 C, xi 2 X , i = 1; 2; :::; n.Une telle fonction K s’appelle un noyau dé…ni
positif ou simplement un noyau sur X . On note par K(X ) l’ensemble de tous les noyaux
sur X .
Lemme 1 (de Schur) Soient (aij ) ; (bij ), 1
i; j
n deux matrices dé…nies positives.
Alors (aij bij ) est aussi dé…nie positive.
Corollaire 1 L’espace K(X ) de tous les noyaux sur X esi stable par rapport à la multiplication point par point.
Corollaire 2 Soient Xi , 1
X = X1
:::
i
n des ensembles et soit Ki 2 K(Xi ) pour tout i. On a
Xn , et
K(x; y) =
¯ ¯
Yn
i=1
Ki (xi ; yi ), x = (x1 ; :::; xn ), y = (y1 ; :::; yn )
¯
¯
68
tq : xi ; yi 2 Xi . Alors K 2 K(X ).
Proposition 11 Soient X un ensemble et K 2 K(X ). Alors il existe un espace de Hilbert
H et une fonction
:X
! H qui satisfait :
i) L’ensemble f (x); x 2 X g est total dans H ;
ii) K(x; y) = h (x); (y)i pour tout x, y dans X .
0
Si H0 est un autre espace de Hilbert et
: X
! H0 est une autre fonction qui
véri…e i) et ii) par raport à H0 alors il existe un isomorphisme unitaire U : H ! H0 tq
U (x) =
0
(x) pour tout x 2 X .
La paire (H; ) est dé…nie modulo d’isomorphisme unitaire par le noyau K sur X est
nommée la paire de Gelfand associée à K.
Nous sommes maintenant prêts pour introduire la notion du produit tensoriel des
espaces de Hilbert utilisant la propostion précédente. Soient Hi , 1
de Hilbert et soit X = H1
:::
i
n des espaces
Hn leur produit cartésien comme un ensemble. Alors,
la fonction Ki (u; v) = hu; vi, u; v 2 Hi est un noyau sur Hi pour tout i. Par le 2ieme
corollaire précédent la fonction
K(u; v) =
¯ ¯
Yn
i=1
hui ; vi i , u = (u1 ; :::; un ), v = (v1 ; :::; vn )
¯
¯
tq : ui , vi 2 Hi pour tout i, est un noyau sur X . On considère une paire de Gelfand
quelconque (H; ) associée à K et qui satisfait i) et ii) de la proposition précédente.
Alors, H est appelé un produit tensoriel de Hi , i = 1; ::; n. On écrit
H = H1
(u) = u1
¯
H2
u2
:::
:::
Hn =
un =
n
i=1
n
i=1
Hi ;
ui
et on appelle (u) le produit tensoriel des vecteurs ui , 1 i n. Si Hi = h pour tout
¯
n
i alors H est appelé le n-produit tensoriel de h, il est noté par h . Si de plus, ui = u
69
pour tout i dans le premier corollaire précédent, alors (u) est notée par u
¯
la nieme puissance de u.
Proposition 12 La fonction (u1 ; :::; un ) ! u1
H1
H2
u2
un de H1
:::
H2
n
:::
et appelée
Hn dans
Hn dé…nie par le lemme de Schur et le 1ier corollaire est multilinéaire
:::
pour tous scalaires ,
u1
=
u1
:::
ui
:::
( ui + vi )
1
un + u 1
:::
De plus
n
n
i=1
L’ensemble
n
i=1
ui ; v i
i=1
ui =ui 2 Hi ; i = 1; :::; n
Pour tout ui 2 Hi , 1
=
ui+1
ui
Yn
i=1
vi
1
un
ui+1
:::
hui ; vi i :
est total dans
n
i=1
n le produit vectoriel
i
:::
n
i=1
un
(2.3)
Hi .
ui peut être interpréter comme
une fonctionnelle anti-multilinéaire
n
( ui )(v1 ; v2 ; :::; vn ) =
i=1
Yn
i=1
hvi ; ui i :
Toutes les fonctionnelles anti-multilinéaires génèrent une variété linéaire M pour laquelle le produit scalaire (2.3) peut être prolongé par sesquilinéarité pour construire un
espace préhilbertien. M est le produit tensoriel algébrique habituel des espaces vectoriels
Hi , 1
i
n et est sa complétion.
Opérateurs sur les produits tensoriels des espaces de Hilbert
On va dé…nir les produits tensoriels des opérateurs. Pour commencer avec, soit Hi
de dimension …nie mi , 1
i
n et H =
n
i=1
Hi . On suppose que Ti est un opérateur
auto-adjoint sur Hi ayant les valeurs propres f
70
ij ; 1
j
mi g et les vecteurs propres
orthogonaux feij ; 1
mi g qui correspondent aux valeurs propres c-à-d
j
Ti eij =
ij eij ; 1
j
mi ; i = 1; 2; :::; n:
On dé…nit un opérateur auto-adjoint T sur H en posant
n
T
i=1
Yn
eiji =
n
iji
i=1
i=1
eiji ; 1
ji
mi ;
Qn
est linéairement prolongé sur H. L’opérateur T admet les valeurs propres
i=1
et satisfait
T
n
i=1
ui =
n
i=1
Ti ui ; 8ui 2 Hi ; 1
i
iji ,
n:
De plus
Yn
kT k = max(
i=1
Yn
max(j
=
;1
iji
ij j ; 1
i=1
ji
j
mi )
mi ) =
Yn
i=1
kTi k :
En particulier, on a
X
j
k
1 j;k N
Yn
i=1
huij ; Ti uik i
* N
X
=
T = T1
:::
j,
j
j=1
Yn
i=1
pour tous les scalaires
n
uij 2 Hi , 1
j
i=1
kTi k
N, 1
uij ; T
N
X
j=1
n
j
i=1
uij
+
2
N
X
j
i
n, N = 1; 2; ::: On écrit
j=1
n
i=1
uij
Tn et on appelle le produit tensoriel des opérateurs Ti , 1
i
n. La
proposition suivante prolonge cette notion élémentaire à tous les opérateurs bornés sur
les espaces de Hilbert.
Proposition 13 Soient Hi , 1
i
n et Ti un opérateur borné sur Hi , 8i. Alors il
71
existe un opérateur borné unique T sur H =
T
n
i=1
De plus kT k =
Q
i
ui =
n
i=1
n
i=1
Hi qui satisfait
Ti ui pour tout ui 2 Hi , 1
i
n.
kTi k.
Donc, si (Hi ; P (Hi ) ; i ) est un espase probabilisé quantique 8i = 1; :::; n, en posant
H=
n
i=1
Hi ,
=
n
i=1
i,
on obtient un espase probabilisé quantique (H; P (H) ; ) appelé le
produit des espases probabilisés quantiques précédents
Si Xi est un opérateur auto-adjoint borné sur Hi , alors X = X1
opérateur auto-adjoint borné sur H et son espérance à l’état produit
donc elle est le produit des espérances des Xi aux états
i,
i = 1; :::; n.
Xn est un
Q
est ni=1 tr i Xi ,
:::
Proposition 14 Chaque élément P de P (H) peut être obtenu par une limite d’une
combinaison linéaire des projections de la forme
n
i=1
Pi , Pi 2 P (Hi ).
Produit tensoriel symétrique
Certains phénomènes de la mécanique quantique nécessite l’introduction de produits
tensoriels d’espaces de Hilbert, par exemple les gaz quantiques. On suppose que le système
physique est constitué de n particules identiques qui sont toutes indistinguables l’une de
l’autre. Il se peut qu’une transition apparaisse dans le système et qui en résulte un simple
échange des particules concernant quelque grandeur physique (comme la position) et il
se peut qu’il ne soit pas possible de détecter un tel changement par une observable quelconque. Supposant que le comportement statistique de la dynamique de chaque particule
isolée est décrit par un état dans un espace de Hilbert H. Les événements concernant
toutes les n particules sont décrits par des éléments de P H
alors
n
i=1
n
. Si Pi 2 P (H), 1
i
n,
Pi représente l’événement : Pi apparaît pour chaque i. Si les particules i et j sont
en échange et l’échange ne peut pas être décelé alors il ne faut pas distinguer entre les
événements P1
:::
Pn et P1
:::
Pi
1
Pj
72
Pi+1
:::
Pj
1
Pi
Pj+1
:::
Pn ,
d’où dans le second produit les positions Pi et Pj sont échangées. Cela suggére que l’espace H
n
est trop gros et par conséquent il admet plusieurs projections et il n’est pas
adéquat pour la description des événements concernant n particules identiques. Pour
traiter cette question de degré de liberté, la réduction désirée de l’espace de Hilbert peut
être menée à bien par une restriction à un sous-espace convenable de H
n
qui est "in-
variant par les permutations". Soit Sn le groupe de toutes les permutations
: f1; 2; :::; ng ! f1; 2; :::; ng de l’ensemble f1; 2; :::; ng. Pour chaque
U sur H
n
1
2 Sn on dé…nit
par
U u1
où
2 Sn ,
:::
un = u
:::
1 (1)
u
1 (n)
est l’inverse de . Alors U est une fonction de l’ensemble de tous les vecteurs
produits de H
n
(qui préserve le produit scalaire). U peut être prolongé uniquement en
n
un opérateur unitaire sur H
, encore noté par U lui même. On a 8 ;
U U 0 =U
Par conséquent,
0
0
2 Sn
:
! U est un homomorphisme de Sn dans U(H
n
). Le sous-espace
fermé
H
n
s
= u2H
n
=U u = u; 8 2 Sn ;
est appelé le n-produit tensoriel symétrique de H. Il est invariant à gauche par les opérateurs U ,
2 Sn . En fait, il existe d’autres sous-espaces de H
n
invariants par per-
mutations mais il semble qu’il ne sont pas importants dans la description physique de
n particules identiques. Si les comportements statistiques des dynamiques d’une seule
particule sont décrits par des états dans P H
n
s
pour n = 2; 3, ... alors chaque particule
est appelée "boson".
Espace de Fock
Nous avons vu comment la notion de produit tensoriel d’espaces de Hilbert nous
permet de combiner plusieurs espaces probabilisés quantiques en un seul espace. Nous
73
allons voir qu’il existe encore une autre construction de base qui nous permet d’étudier
la combinaison d’un nombre "indé…ni" de tels systèmes. Cette idée est illustrée par la
question suivante : si les événements concernant les dynamiques d’une seule particule sont
décrits par des éléments de P (H), où H est séparable, comment construit-on un espace
de Hilbert pour un nombre indé…ni de particules dans un système où l’indétermination
est due au fait que les particules peuvent être "créées" ou "annihilées" suivant certaines
lois du hasard. Nous allons essayer d’accomplir cela en rassemblant tous les produits
tensoriels d’ordre …ni en une seule somme directe.
Proposition 15 Soient An 2 B (Hn ), n = 1; 2; :::, où fHn g est une suite d’espaces de
Hilbert. On suppse que supn kAn k < 1. Alors il existe un opérateur unique A =
sur H =
n Hn
i) A
n
n An
qui satisfait
n An u ;
un =
ii) kAk = supn kAn k.
Si fAn g, fBn g sont deux suites des opérateurs tq An , Bn 2 B (Hn ) pour chaque n et
supn (kAn k + kBn k) < 1, alors leurs sommes directes A =
1. A + B =
n
(An + Bn ), AB =
n An Bn ,
A =
n An
n An
et B =
n Bn
satisfant
;
2. Si chaque An a un inverse borné et sup kAn 1 k < 1, alors A a un inverse borné et
A
1
=
n An
1
;
3. Si chaque An est auto-adjoint, normale, unitaire, positif ou opérateur de projection
alors A a la même propriété des An .
4. Si A =
est un état dans H alors il existe des états
P
n = 1; 2; ::: tq n pn = 1 et = n pn n .
Soit H, H
n
et H
n
s
n
et des scalaires pn
0,
, d’ou 0-produit est le plan complexe de dimension 1 et 1-produit
est H lui même. L’espace de Hilbert
fr
(H) =
1
n=0
H
n
;
s
(H) =
1
n=0
H
n
s
sont appelés respectivement l’espace de Fock libre sur H (ou Maxwell-Boltzman), l’espace
de Fock symétrique sur H (ou Bose-Einstein). La nieme somme directe dans chaque cas
74
est appelée le sous-espace de n-particules. Lorsque n = 0 on l’appelle le sous-espace
vide. Chaque élément du sous-espace de n-particules est appelé vecteur de n-particules,
le vecteur 1 0 0 ::: est appelé le vecteur vide qui est noté par . On note par
0
s
0
fr
(H),
(H), le sous-espace dense générée par tous les vecteurs de n-particules, n = 0; 1; 2; :::
dans l’espace de Fock correspondant et on appelle chacun de ses éléments vecteur de
particule …nie. Pour chaque u 2 H l’élément
e (u) =
(où 0! = 1, u
0
= 1) appartient à
s
(H)
n
(n!)
fr
1
2
u
n
(2.4)
(H) et il est appelé le vecteur exponentiel
(ou vecteur cohérent) associé à u. Pour tout u, v 2 H
he (u) ; e (v)i = exp hu; vi :
Proposition 16 L’ensemble fe (u) =u 2 Hg de tous les vecteurs exponentiels est linéairement indépendant, il est total dans
Pour chaque ensemble S
s
(H).
H, la notation E (S) désigne le sous-espace généré par
fe (u) =u 2 Sg. Lorsque S = H et s’il n’y a pas de confusion on écrit E = E (H).
Représentation de Weyl
On sait déjà que le chemin vers la construction d’observables consiste à regarder les
représentations unitaires de groupes (de Lie) et calculer les générateurs de Stone. Un
espace de Hilbert H, étant un espace vectoriel, est un groupe additif. Notant U (H)
l’ensemble de tous les opérateurs unitaires. La paire (u; U ) agit sur v 2 H comme
(u; U ) v = U v + u;
75
il s’agit d’une "rotation" par U suivie d’une translation par u. On a la loi de composition
suivante pour les paires (u1 ; U1 ) et (u2 ; U2 )
(u1 ; U1 ) (u2 ; U2 ) = (u1 + U1 u2 ; U1 U2 ) ;
le produit cartesien H
l’inverse (u; U )
1
=( U
U (H) devient alors un groupe dont l’élément neutre est (0; I) et
1
u; U
1
). Se groupe, noté E (H) muni de sa topologie naturelle
s’appelle le groupe euclidien au dessus de H. Si la dim H < 1, E (H) est un groupe
de Lie connexe de dimension n
(n + 2). En tout cas, E (H) admet un riche réservoir
de sous-espace à un paramètre. Nous allons construire certaines représentations unitaires
projectives de E (H) dans l’espace de Fock bosonique et nous aurons une riche récolte
d’observables.
Fock s’est beaucoup inspiré des travaux de Weyl sur la quanti…cation.
Dé…nition 29 (Opérateur de Weyl) L’opérateur unitaire W (u; U ) sur
s
(H) satis-
faisant
W (u; U ) e (v) =
exp
1
kuk2
2
hu; U vi
e (U v + u) pour tout v 2 H
est appelé opérateur de Weyl associé à la paire (u; U ). Le groupe fW (tu) = W (tu; I) =t 2 Rg
d’opérateurs unitaires admet donc par Stone un générateur noté p (u) c-à-d
W (tu) = exp ( itp (u)) ; t 2 R; u 2 H:
Soit t 2 R. L’opérateur
(2.5)
(U ) = W (0; U ) s’appelle la seconde quanti…cation de U .
Pour chaque groupe unitaire à un paramètre Ut = e
unitaire à un paramètre f (Ut ) =t 2 Rg sur
s
itH
sur H correspond un groupe
(H). On note le générateur de Stone par
(H) tq
(exp ( it )) = exp ( it (H)) ;
l’observable (H) est appelé la seconde quanti…cation di¤érentielle de H.
76
(2.6)
Par 2.5 et 2.6, on obtient les familles fp (u) ; u 2 Hg ,f (H); H observable sur Hg
des observables sur
s
(H). Le calcul stochastique dépend beaucoup des propriétés de ces
observables.
Proposition 17 Pour chaque u dans H soit p (u) une observable dé…nie par 2.5. On a
alors : i) E
D (p (u1 ) p (u2 ) :::p (un )) pour tout n et u1 ; u2 ; :::un 2 H ; ii) E est un core
(i.e. dense dans D) pour tout u dans H ; iii) [p (u) ; p (v)] e (w) = f2i Im hu; vig e (w).
Proposition 18 Pour une observable quelconque H sur H soit
ti…cation di¤érentielle sur
i) E (D (H))
s
(H) sa seconde quan-
(H). Alors
D ( (H)) ; ii) E (D (H 2 )) est un core de
(H) ;
iii) Pour deux observables quelconques H1 , H2 sur H et un u dans H
i [ (H1 ) ; (H2 )] e (v) =
(i [H1 ; H2 ]) e (v) :
Opérateurs d’annihilation et de création
On va maintenant introduire une famille d’opérateurs en termes les opérateurs de
Weyl où les calculs concernant p (u) et
(H) deviennent considérablement simpli…és. On
écrit
q (u) =
p (iu) ; a (u) =
1
1
(q (u) + ip (u)) ; a (u) = (q (u)
2
2
ip (u)) :
(2.7)
Pour chaque u dans H. Pour chaque opérateur borné H sur H on écrit
(H) =
Soit a (u), a (u),
1
(H + H ) + i
2
(H),
1
(H
2i
H ) ;
(H) =
(H ) :
(2.8)
(H) sont dé…nis comme dans 2.7 et 2.8 pour u 2 H,
H 2 B (H). Pour un opérateur de la forme T = T1 T2 :::Tn où chaque Tj est un des
opérateurs a (uj ), a (uj ),
relation E
(Hj ), uj 2 H, Hj 2 B (H), 1
D (T ). De plus, pour ,
1,
2
j
n, n = 1; 2; :::, on a la
2 E on a les relations suivantes :
77
1. a (u) e (v) = hu; vi e (v) ;
Proposition 19
2. ha (u)
3. h
(H)
1;
1;
2i
=h
2i
=h
1 ; a (u)
1;
(H)
2i ;
2i ;
4. Les restrictions de a (u) et a (u) à E sont respectivement anti-linéaire et linéaire
par raport à la variable u. La restriction de
(H) à E est linéaire par raport à la
variable H ;
[a (u) ; a (v)]
[ (H1 ) ; (H2 )]
[a (u) ; (H)]
= [a (u) ; a (v)]
=
= 0; [a (u) ; a (v)]
= hu; vi ;
([H1 ; H2 ]) ;
= a (H u) ; [a (u) ; (H)]
=
a (Hu) :
5. he(v); (H) e(w)i = hv; Hwi ehv;wi ;
6. ha (u1 ) e(v); a (u2 ) e(w)i = fhu1 ; wi hv; u2 i + hu1 ; u2 ig ehv;wi ;
7. ha (u) e(v); (H) e(w)i = fhu; wi hv; Hwi + hu; Hwig ehv;wi ;
8. h (H1 ) e(v); (H2 ) e(w)i = fhH1 v; wi hv; H2 wi + hH1 v; H2 wig ehv;wi .
Remarque 26 Les systèmes macroscopiques sont généralement constitués de beaucoup
de parties microscopiques pour qu’on puisse déterminer quel espace de Hilbert leur est
associé. Cependant, on considère que dans la limite où un système devient macroscopique,
les lois quantiques se réduisent aux lois de la mécanique classique.
2.2.3
Calcul stochastique non commutatif et formule d’Itô
Il est possible de transcrire au contexte non commutatif presque toutes les notions de
la théorie générale des processus stochastiques ainsi que du calcul stochastique classique,
il existe en e¤et une littérature énorme sur ce sujet. Nous allons nous contenter de donner
quleques dé…nitions. On se place dans un espace de Fock ayant une structure temporelle
t (qui est un opérateur à spectre continu !) et on aura alors naturellement des substitus
pour les concepts de processus, …ltrations, adaptation, martingales, intégrale stochastique
78
etc. . Comme ces concepts nous sont déjà familiers, nous n’entrerons pas dans les détails
qui allourdiront le texte et on se contente d’une exposition intuitive.
Quelques éléments de base
Comme dans le cas classique, on dispose d’un système composé d’un état initial H0 et
B(R+ ) ! P(H)
d’un bruit (H) et on opère sur H0
(H). Le temps est l’observable
(voir 2.2.1), le passé avant t est H0
( ([0; t])) et le future ( ([t; 1[)). Le crochet de
deux martingales mt et mt (i.e. des opérateurs à valeurs dans H avec ([0; s])mt = ms )
est une mesure complexe << : >> t.q. << m; m0 >> ([0; t]) =< mt ; m0t >. Dé…nissons
d’abord les trois processus fondamentaux suivants.
Processus de création et d’annihilation
On rappelle que les opérateurs de création et d’annihilation ont été dé…nis dans la
section 2.2.2. Le processus de création Am (t) et d’annihilation Am (t) ont le domaine
D (Am (t)) = D (Am (t)) = E (H)
et agissent sur les vecteurs exponentiels comme suit, 8u 2 H
d
e utc + "mt j"=0 e ubt ;
d"
Am (t) e (u) = a (mt ) e (u) = hhm; uii ([0; t]) e utc e ubt ;
Am (t) e (u) = a (mt ) e (u) =
Processus de conservation
Quant au processus de conservation
H
(t) , de même domaine D (
agit suivant
H
8u 2 H, où
(t) e (u) =
(Ht ) e (u) =
(Ht ) est dé…ni par (2.8).
79
(Ht ) e utc
e ubt ;
H
(t)) = E (H),
Intégrale stochastique
L’intégrale stochastique sur un processus étagé L(s) est dé…nie par
< f e(u);
Z
t
LdM ge(v) >=
0
où
Z
t
< f e(u); L(s)ge(v) > d (s)
0
=<< u; m >> , << u; Hv >> ou << m; v >> selon que M est l’une des trois
martingales fondamentales.
Le fameux crochet est donné par
<
+
Z
t
t
L1 dM1 f e(u);
Z
Z
t
t
L2 dM2 ge(v) >=
< L1 (s)f e(u); X2 (s)ge(v) > d 1 (s)
0
0
0
Z t
< L1 (s)f e(u); L2 (s)ge(v) > d 12 (s);
< X1 (s)f e(u); L2 (s)ge(v) > d 2 (s) +
0
0
où
Z
1,
M1
1
M2
2,
12
sont données par les tables
Am1
hhm1 ; vii
Am1
H1
hhH1 u; vii hhu; m1 ii
Am2
,
M1 M2
Am2
Am1
hhm1 ; m2 ii
Am2
H2
hhu; m2 vii hhu; H2 vii hhm2 ; vii
voir [20], page 185.
hhm1 ; H2 vii
Am2
0
hhH1 u; m2 ii hhH1 u; H2 vii 0
H1
2
H2
Am1
0
0
0
Formule d’Itô non commutative
Soient les processus quantiques suivants qui sont des généralisations des processus
d’Itô
Xt = X0 +
k Z
X
i=1
=
X00
+
k Z
X
i0 =1
Li d
i
+
0
0
Xt0
t
0
XZ
L0i0 d 0i0
+
Ki dMi ;
0
i
t
t
XZ
i0
0
t
Ki00 dMi00
On a alors la formule d’Itô non commutative, voir (1.6) ; remarquons la grande simi-
80
larité avec la section 1.9.2.
+
k Z
X
i=1
0
XZ
k0
+
i0 =1
+
i;i0
n0
i0 =1
i=1
t
Xs f e(u); L0i0 (s)ge(v)
<
>d
0
i0 (s)
XZ
+
i0 =1
t
0
où les mesures
0
n0
0
XXZ
n;n0
t
< Xt f e(u); Xt0 ge(v) >=< X0 f e(u); X00 ge(v) >
n Z t
X
0
< Li (s)f e(u); Xs ge(v) > d i (s) +
< Ki (s)f e(u); Xs0 ge(v) > d i (s)
< Ki (s)f e(u); Ki00 (s)ge(v) > d
:
sont dé…nies plus haut.
81
ii0 (s):
0
t
< Xs f e(u); Ki00 ge(v) > d
0
i0 (s)
Chapitre 3
CALCUL DE MALLIAVIN ET
ANALYSE SUR L’ESPACE DE
WIENER
Avant d’entamer les éléments de comparaison du calcul de Malliavin avec le chapitre
précédent. Étudions d’abord la relation avec l’anlayse sur l’espace de Wiener. Ensuite,
p
ayant compris que le point crucial est que la covariance d’un MB Bt "est" t, on généralisera au martingales normales, voir [21]. Nous suivrons le tome V du traité monumental
et chef d’oeuvres des mathématiques modernes de Dellacherie, Meyer et Maisonneuve.
Signalons que Nualart [19] traite surtout les cas d’un MB, est lucidé et détaillé dans
le cas continu mais ne s’apprête pas directement à la liaison avec l’espace de Fock qui
apparait sous le nom "d’espace gaussien isonormal". L’exposé [9] est pour nous d’une
grande utilité puisqu’il trace les grandes lignes de comparaison à lui tout seul, mais il est
très di¢ cile à lire !...
82
3.1
Introduction et motivation
Nous allons donner une présentation heuristique pour faciliter la compréhension des
notions compliquées qui apparaîtront plus bas. L’idée est de trouver un équivalent pour
la formule de Taylor classique. En fait, cette généralisation (de la formule de Taylor)
est liée à d’autres phénomènes de la dimension in…nie : il s’agit d’un enchevêtrement de
notions (géométrie non commutative, probabilités non commutatives, EDP en dimension
in…nie, produit de Wick etc...) qu’on commence à peine à déchi¤rer en ce début du 3ieme
millénaire.
Nous savons que le calcul di¤érentiel et intégral classique de Newton s’exprime par
Z
b
F 0 (x)dx = F (b)
F (a);
(3.1)
a
et ainsi on note que les aspects de dérivation et d’intégration sont intimement liés. Montrons comment on peut arriver à la formule de Taylor par un processus d’intégration
à partir de la formule de Lagrange (cette méthode ne semble pas très connue dans les
manuels classiques). On a
F (x + h) = F (x) + F 0 (c):h:
où c 2 ]x; x + h[. Par le théorème de la moyenne on a donc
0
F (c) =
Z
1
F 0 (x + h )d ;
0
83
(3.2)
ainsi en remplaçant dans 3.2 F 0 par sa décomposition de Lagrange on a
Z
1
(F 0 (x + h ) + F 0 (x) F 0 (x))d
0
Z 1
Z 1
00
0
h
F (x + h 0 )d 0 d
= F (x) + hF (x) + h
0
0
Z 1
Z 1
00
00
= F (x) + hF 0 (x) + h
h
F (x + h 0 ) + F (x)
F (x + h) = F (x) + h
0
0
d
0
h2 00
= F (x) + hF 0 (x) + F (x)
Z 1 2 Z 1
Z 1
F (3) (x + h
h
h 0
+h
0
00
F (x) d
0
00
)d
00
d
0
d
0
0
= :::;
on voit donc Taylor apparaître avec un terme d’erreurs qui n’est ni Cauchy ni Lagrange
(classique) et métant en jeux des intégrations successives. Notons qu’apparaît déjà ici la
struture du simplexe
:::
h
0
h
h:
(3.3)
L’idée est alors de reprendre cette construction en dimension in…nie. Il est fondamental
de disposer d’une mesure (dans la formule de Taylor on utilise la mesure de Lebesgue).
Comme il n’existe pas de mesure de Lebesgue en dimension in…nie, il faut chercher une
mesure naturelle. Pour nous ça sera la mesure de Wiener et donc notre point de vue est
déjà probabiliste. Le calcul de Malliavin dé…nit la dérivée d’une façon probabiliste. En
e¤et, le fait de dériver une fonctionnelle en un point aléatoire revient intuitivement à
dériver cette fonctionnelle partout. Cette idée féconde de Malliavin lui a valu une grande
réputation internationale. Peut être que ce succès est dû au fait que ces espaces de
dimension in…nie sont souvent issus de modèles probabilistes pour les gaz, systèmes de
particules etc... On devra donc généraliser la notion de dérivation et la notion associée
d’intégration. L’idée de Malliavin est tout simplement ( !) la remarque suivante. Pour t
84
quelconque mais …xé on a pour F = f (Bt )
0
Ef (Bt ) =
Z
R
f 0 (x) p
1
e
2 t
1 h
= p
f (x)e
2 t
1
=
Ef (Bt )Bt ;
t
x2
2t
x2
2t
dx
i+1
1
+p
1
2 t
Z
x
f (x) e
t
R
x2
2t
dx
qui constitue une intégration par parties car la dérivation en f a été levée (tout comme
dans 3.1). Il su¢ t maintenant de prendre un cylindre de base …nie pour les temps t1 , t2 ,...,
tn au lieu d’un seul temps t. On aboutit d’une façon naturelle aux polynômes d’Hermite.
Le calcul précédent met en évidence le premier polynôme non constant d’Hermite x.
L’intimité entre le M.B. et les polynômes d’Hermite est au coeur de l’équivalence entre
deux approches menant au calcul de Malliavin classique : l’approche variationnelle du
type espace de Sobolev et l’approche chaotique du type espace de Fock. Ici on choisit la
deuxième approche.
Maintenant il s’agit de voir comment on peut mener à bien cette démarche avec plus
de détails. Laissons de côté les probabilités et considérons le calcul di¤érentiel et intégral
dans un espace de dimension n. Soit u une fonction vectorielle et v une fonction scalaire.
Par une intégration par parties très simple, on a en supposant que l’un des termes u, v
a un support compact
Z
Donc div et
Z X
(div u) vdx = ( @i u)vdx =
i
XZ
i
ui @i vdx =
Z
hu; rvi dx:
r sont l’adjoint l’un de l’autre. Il en sera de même en dimension in…nie.
L’opération r sera appelée dérivée de Malliavin (elle jouera le rôle d’une annihilation) et
l’opération div sera appelée intégrale de Skorohod (elle jouera le rôle d’une création) dans
le contexte probabiliste. On verra apparaître une structure bien connue en mécanique
quantique : une hiérarchie d’espaces à n particules. L’opérateur d’annihilation permet
de passer d’un espace à n + 1 particules à un espace à n particules et l’opérateur de
85
création fera l’inverse. Ces espaces à n particules ont un nom chez les mathématiciens :
les chaos de Wiener. Ils sont exactement des intégrales stochastiques multiples. Sans
probabilités, il existe déjà plusieurs façons pour dé…nir la notion de dérivée d’une fonction
continue F donnée en dimension in…nie, on peut naturellement admettre que l’opération
de dérivation, notée F , qui est linéaire est donnée par le théorème de Riesz
F (x (t)) =
Z
xyd ;
le domaine d’intégration étant un espace fonctionnel,
une mesure appropriée sur cet
espace, x et y étant deux fonctions. Cela correspondrait à une dérivation au sens de
Frechet. Ce point de vue, très correcte, n’est cependant pas maniable en pratique. On
peut aussi adopter le point de vue d’une dérivation plus faible au sens de Gâteaux c-àd une dérivation directionnelle. Suivant la justi…cation intuitive de Feynmann et Hibbs
(voir [12], p 170) on écrit formellement pour R1 au lieu d’un vrai espace fonctionnel
F (:::; xi +
A l’aide de la subdivision ti ; ti+1
où xi = x (ti ) et
i
i ; :::)
F (:::; xi ; :::) =
X @F
:
@xi i
ti = ", on aurait pour x = (:::; xi ; :::) et
= (:::; i ; :::)
= (ti )
F (x + )
F (x) =
X 1 @F
" @xi
i ":
En posant F= s x = 1" @F=@xi , on peut écrire
F (x (t) + (t))
F (x (t)) =
Z
F
(s) ds:
sx
(I)
Grâce à Malliavin et au calcul stochastique, ces écritures heuristiques ont un sens très
rigoureux et surtout très utile et la dérivation directionnelle s’interprète ainsi : pour
simpli…er la présentation prenons un F de la forme F = F (Bt1 ; :::Btn ). Soit
86
2 L2 (R),
on a pour justi…er (I)
Z
t
0
1
F ds = lim
F
" !0 "
Bt1 + "
Z
t
(s) ds; :::; Btn + "
0
Z
t
(s) ds
F (Bt1 ; :::; Btn ) :
0
En généralisant juste un peu plus au cas d’un espace de Hilbert où hi 2 L2 (R+ ) et c’est
Rt
là la grande découverte de Malliavin, on a en posant B (hi ) = 0 hi (s) dBs
h F; hi = lim
1
" !0 "
A ce stade
[F (B (h1 ) + " hh1 ; hi ; :::; B (hn ) + " hhn ; hi)
F (B (h1 ) ; :::; B (hn ))] :
n’a pas encore une structure mathématique et F ne sera pas nécessairement
continue. Malliavin a identi…é
comme un espace de Wiener C0 ([0; T ]) qui est un espace
de dimension in…nie.
3.2
Intégrale stochastique multiple
Passons maintenant à une étude rigoureuse dans le cadre très général des martingales
normales, voir 1.11, (qui ne sont pas nécessairement browniennes). Notre but est la dé…nition et l’étude des intégrales stochastiques, relativement à une martingale normale
X
Z
P
f (s1 ; :::; sn )dXs1 :::dXsn ;
n
P
P
où f est une fonction de carré intégrable sur le "simplexe croissant" n de Rn+ , n =
P
fs1 < s2 < ::: < sn g (on pose aussi n (t) = fs1 < s2 < ::: < sn < tg). Ces intégrales ont
été dé…nies pour la première fois par Wiener, reprises par Itô. Dans Nualart [19] avec
Xs = Bs on se place dans le cas symétrique. Cependant, nous allons travailler dans un
système de notations courtes : rappelons que P (resp. P(t)) est l’ensemble des parties
…nies de ]0; 1[(resp.]0; t]). Lorsqu’on se borne aux parties à n éléments, on le précise en
écrivant Pn , Pn (t). On identi…e une partie …nie A 2 Pn au n uples fs1 < s2 < ::: < sn g
P
de ses éléments rangés par ordre croissant ; Pn est identi…é au simplexe n
Rn+ , et
hérite de la tribu et de la mesure induites par la tribu borélienne et la mesure de Lebesgue
87
de Rn+ . Il est très important de noter que ce simplexe est déjà apparu en dimension 1
dans la formule de Taylor (3.3) et ce qu’on essaye de faire ici et juste la généralisation des
manipulations données dans la section 3.1. L’ensemble P0 est réduit à un point, auquel
nous attribuons la masse 1. Tout cela munit P = [n Pn d’une tribu et d’une mesure.
Nous notons avec une lettre majuscule un élément générique A = fs1 < s2 < ::: < sn g de
P, désignons par jAj = n le nombre de ses éléments, par dA l’élément de volume de la
P
mesure précédente (on a ds1 :::dsn sur n ).
Considérons une martingale normale fXt gt 0 . Nous nous proposons d’écrire toute
fonction f 2 L2 (P) comme une somme d’intégrales stochastiques multiples, de la forme
Z
f (A)dXA
XZ
= f (?) +
I(f ) =
P
n>0
f (s1 ; s2 ; :::; sn )dXs1 dXs2 :::dXsn :
s1 <s2 <:::<sn
Ces intégrales multiples possédant en outre la propriété d’isométrie
E [I(f )I(g)] =
Z
f (A)g(A)dA:
P
En particulier si f est nulle hors de Pm , g nulle hors de Pn avec m 6= n, le second membre
est nul et les deux intégrales sont orthogonales.
Les intégrales multiples de la forme I(f ), où f parcourt L2 (Pn ), forment un sous
espace fermé de L2 ( ) que l’on appelle le n
ieme chaos de la martingale X et que nous
désignerons par Cn . Lorsque la martingale normale est un M.B. on parle plus spécialement
des chaos de Wiener.
Soit G la tribu engendrée par les v.a. Xt . D’après la propriété d’isométrie avec L2 (P),
les chaos sont orthogonaux dans L2 (G). Si leur somme hilbertienne est L2 (G) tout entier,
on dit que (Xt ) possède la propriété de représentation chaotique (P.R.C.). Nous verrons
un peu plus bas que le M.B. possède cette propriété, et le but essentiel est d’étudier
diverses propriétés de M.B. liées à la représentation chaotique.
88
Nous passons à la construction des intégrales itérées, en procédant par récurrence
sur jAj, cette construction rappelle les manipulations dans la section introduction et
motivation. Nous commençons par expliquer la notation et le calcul sur un exemple :
supposons que la fonction f (A) soit nulle pour jAj < 3. L’intégrale I(f ) que nous avons
à calculer peut s’écrire sous la forme suivante
Z
f3 (s1 ; s2 ; s3 )dXs1 dXs2 dXs3 +
P3
Z
f2 (s2 ; s3 )dXs2 dXs3 +
P2
Z
f1 (s3 )dXs3 + f0 (?);
P1
que nous écrivons comme l’intégrale stochastique ordinaire
f0 (?) +
Z
gs3 dXs3 ;
d’un processus g donné par
gs =
Z
f3 (s1 ; s2 ; s)dXs1 dXs2 +
P2
Z
f2 (s2 ; s)dXs2 + f1 (s):
P1
Si l’on traite s = s3 comme un paramètre, ceci est une somme d’intégrales multiples
n’allant pas au delà du second chaos. En isolant la variable Xs2 on redescend de même
à l’ordre 1, et on se trouve ramené à trois intégrations ordinaires successives, procédant
de l’intérieur vers l’extérieur (des temps plus petits vers les temps plus grands). Voyons
R
comment se fait la récurrence pour la formule d’isométrie : on a d’après f0 (?)+ gs3 dXs3
2
2
kI(f )k = jf0 (?)j +
Z
kg(:; s3 )k2 ds3 :
Si la formule d’isométrie a lieu à l’ordre 2, nous avons
2
2
kg(:; s3 )k = jf1 (s3 )j +
Z
2
jf2 (s2 ; s3 )j ds2 +
Z
jf3 (s1 ; s2 ; s3 )j2 ds1 ds2 ;
et en intégrant, on voit que la formule d’isométrie passe à l’ordre 3.
Ce raisonnement est entièrement général. Commençons par l’écriture formelle de la
89
récurrence. Nous posons ft0 (B) = f (B [ ftg) si B
un processus adapté gt
gt =
Nous posons ensuite
Z
Z
[0; t[, = 0 sinon, et nous dé…nissons
ft0 (B)dXB :
f (A)dXA = f (?) +
Z
gt dXt :
Le passage de f à ft0 fait gagner ceci : si la fonction f (A) est nulle pour jAj > n, alors
ft0 (A) est nulle pour jAj > n
1, ce qui est la clef de récurrence. On procède exactement
comme dans le cas n = 3. L’intégrale multiple ayant été construite pour les fonctions
f (A) qui sont nulles pour jAj, su¢ samment grand, on utilise en…n la formule d’isométrie
pour l’étendre à tout L2 (P).
Pour la construction de l’intégrale stochastique par itération s’étend aux martingales
fXt gt
0
dont le crochet oblique dhX; Xit est majoré par dt, la formule d’isométrie étant
remplacée par une inégalité entre deux normes L2 . Cependant, il y a des di¤érences
importantes : on ne peut plus a¢ rmer que l’espace de toutes les v.a. représentables
en intégrales stochastiques multiples est fermé dans L2 , et les chaos ne sont plus nécessairement orthogonaux. C’est pourquoi les intégrales stochastiques par rapport aux
martingales sous-normales ont été peu utilisées.
R
R
La formule f (A)dXA = f (?) + gt dXt montre que toute v.a. représentable sous
R
la forme f (A)dXA (avec une fonction f (A) déterministe) l’est aussi sous la forme c +
R
gt dXt , c étant une constante et fgt gt 0 un processus adapté, et même prévisible. En
particulier, la propriété chaotique entraîne la propriété prévisible.
3.2.1
L’analogue de la Formule d’Itô en dimension in…nie
Il y a une relation formelle intéressante entre la représentation prévisible (1.7) et la
représentation chaotique, que nous explicitons. Comme plus haut, les v.a. gt elles mêmes
90
admettent un développement en intégrale stochastique
gt = E(gt ) +
Z
1
gst dXs = f1 (t) +
0
Z
t
gst dXs ;
0
où f1 (t) est une fonction déterministe de carré intégrable, et où l’intervalle d’intégration
a été réduit à [0; t] du fait que gt est Ft mesurable. Par conséquent
F = E(F ) +
Z
f1 (t) dXt +
Z
1
0
dXt
Z
gst dXs :
s<t
On développe à nouveau gst en intégrale stochastique, ce qui fait sortir une fonction
déterministe f2 (s; t) = E(gst ) sur P2 et un processus grst::: . En poursuivant ainsi, on
obtient une série (convergente dans L2 ) d’intégrales stochastiques multiples, dont la
somme Fc repésente la projection de la v.a. F sur la somme des chaos. Dire que F admet
un développement chaotique revient à dire que Fc = F , ou encore que kFc k2 = kF k2 .
Le procédé ci-dessus fournit une méthode utile pour calculer un développement en
chaos de la v.a. F = I (f ) sont donnés, de manière plus élémentaire, par la relation
formelle
fn (s1 ; :::; sn )ds1 :::dsn = E (dXs1 :::dXsn F ) ;
qui se transforme aisément, grâce au théorème de dérivation de Lebesgue, en un procédé
de calcul rigoureux
fn (s1 ; :::; sn ) = lim "
" !0
n
E [(Xs1 +"
Xs1 ) ::: (Xsn +"
Xsn ) F ] ;
cette limite existant presque partout et au sens L2 .
La notation traditionnelle des intégrales stochastiques multiples est la notation symétrique, dont nous présentons ici une variante. Elle consiste à écrire
F =
X In (fn )
n
91
n!
In (fn ) =
XZ
n
(Rn+ )
fn (s1 ; :::; sn )dXs1 :::dXsn ;
où maintenant les fonctions fn sont prolongées hors du simplexe
P
n
en des fonctions
symétriques sur Rn+ , et où l’on convient que les intégrales sur les "copies" du simplexe
croissant (qui sont anticipantes) peuvent être calculées en remettant les variables dans
le bon ordre. L’e¤et de cette opération, par rapport à une notation non-anticipante, est
donc de multiplier et de diviser par n!, avec pour aventage l’élimination de la structure
d’ensemble totalement ordonné de Rn+ . Cette élimination de l’ordre se fait aussi bien
au moyen de la notation courte : la dé…nition de l’espace des parties …nies n’utilise pas
explicitement le choix d’un ordre. Notons la forme nouvelle de la propriété d’isométrie :
kI (f )k2 =
X kfn k2
n!
n
;
où kfn k est maintenant la norme de la fonction symétrique fn dans L2 Rn+ .
3.2.2
Vecteurs exponentiels
La construction des intégrales multiples symétriques peut se décomposer en deux
étapes. D’abord ériger un espace de Fock
une isométrie entre
(H) réel où H = L2 (R+ ). Ensuite, construire
(H) et un espace de v.a., cet espace est connu, comme on le sait,
sous le nom d’espace gaussien isonormal. La première étape peut être décrite dans un
language purement hilbertien. La similitude avec les espaces de Fock va encore plus loin.
Rappelons que les vecteurs exponentiels ont été introduits au chapitre 2. Nous allons voir
qu’il y a une version réelle. Soit h (t) une fonction (réelle ou complexe) appartenant à
L2 (R+ ). Nous la prolongeons en une fonction H sur P par la formule
H (A) =
Q
h (s) :
s2A
92
On a en particulier H (?) = 1. Calculons la norme L2 de H
Z
P
2
jH (A)j dA = 1 +
=
X1 Z
n!
n>0
X1
n
Rn
+
jh(s1 ):::h(sn )j2 ds1 :::dsn
2
khk2
khk2n
:
2 = e
n!
Cette norme étant …nie, on peut dé…nir la v.a.
E (h) =
Z
H (A) dXA ;
que l’on appelle vecteur exponentiel associé à h. La formule
P1
n
généralisation facile suivante
n!
2
khk2
admet la
khk2n
2 = e
hE (h) ; E (k)i = ehh;ki ;
où le crochet peut désigner soit le produit scalaire hermitien complexe, soit le produit
scalaire bilinéaire. Dans la notation symétrique, les vecteurs exponentiels s’écrivent
E (h) =
X In (h
n
n
)
n!
Remarque 27 Les fonctions H (A) de la forme
Q
:
h (s), où h est comprise entre 0 et
s2A
1, forment un ensemble de fonctions bornées stable par multiplication, contenant (pour
h = 0) la fonction 1. Prenons h de la forme
k, où k est …xe et
1, dérivant m fois par rapport à
= 0, on s’aperçoit sans peine que ces
et faisant
varie entre 0 et
fonctions engendrent la tribu borélienne de P. Le théorème des classe monotones entraîne
alors qu’elles forment un ensemble total dans L2 (P), et la P.R.C. équivaut à la densité
des vecteurs exponentiels.
Pour trouver l’interprétation probabiliste des vecteurs exponentiels, désignons par
R
R
Et (h) le vecteur exponentiel E hI[0;t] . Alors la formule f (A)dXA = f (?) + gt dXt
93
nous donne
Et (h) = 1 +
Z
t
0
Es (h) h (s) dXs :
Ceci est une E.D.S. linéaire, entraînant en particulier que le processus fEt (h)gt
0
est
une martingale locale, et donc admet des trajectoires càdlàg. Si l’on veut écrire l’équation précédente sous forme correcte, du point de vue de la théorie des martingales, il
faut remplacer le processus fEt (h)gt
par un processus prévisible qui lui soit égal pour
0
presque tout t, et l’on peut prendre
Et (h) = 1 +
Z
t
0
Es (h) h (s) dXs :
On montre que si U est une semi-martingale, l’E.D.S. Vt = 1 +
Rt
0
Vs dUs , admet une
solution et une seule, l’exponentielle stochastique ou exponentielle de Doléans (mathématicienne Française décédée encore jeune) de U , notée souvent E (U ), que l’on sait écrire
explicitement
1
[U;U ]ct
2
Vt = eUt
Q
(1 +
Us )e
Us
;
s t
où [U; U ]c est la partie continue du crochet droit de la semi-martingale U . Prenant pour
R
U l’intégrale stochastique h (s) dXs , on a dans notre cas (le cas brownien)
Et (h) = exp
Z
t
h (s) dXs
0
1
2
Z
t
h2 (s) ds :
0
Rt
Il est facile de véri…er directement que ce processus satisfait à Et (h) = 1+ 0 Es (h) h (s) dXs .
3.2.3
Polynômes d’Hermite
Les polynômes d’Hermite des probabilistes (ils sont intimement liés à l’oscillation
harmonique en mécanique quantique) sont dé…nis par leur fonction génératrice
eux
u2
2
=
X
k
94
uk
hk (x)
:
k!
Nous avons vu plus haut qu’un vecteur expnentiel Et (uf ) du cas brownien admet, d’une
part un développement en chaos convergent dans L2
Et (uf ) =
X
uk
k
k
Ik f
k!
;
et d’autre part la représentation explicite
eu
Appelant I l’intégrale
cette expression
R
R1
0
u2
kf k2
2
f (s)dXs
:
f (s) dXs , N la norme kf k, eux
X
uk N k
I
N
hk
k
k!
u2
2
=
P k hk (x)
u k! permet de récrire
k
;
et en identi…ant les coe¢ cients de uk de deux côtés, on obtient la formule
Ik f
k
k
= kf k hk
R1
0
f (s) dXs
kf k
:
Remarque 28 1) Les polynômes d’Hermite hn (x) que nous utilisons ici di¤èrent légèrement des polynômes Hn (x) couramment utilisés en analyse, dont la fonction génératrice
est e2ux
u2
. On passe des uns aux autres par la relation hn (x) = 2
n
2
Hn
px
2
.
2) Ecrivons que les deux membres de l’égalité
Z
dXs1 :::dXsn =
s1 <:::<sn <1
hn (X1 )
;
n!
ont a la même norme dans L2 . Nous obtenons la formule
(hn ; hn )N = n!;
N désignant la mesure gaussienne standard. On voit de même que deux polynômes d’Hermite de degré di¤érents sont orthogonaux et ils forment un ensemble total dans L2 (N ),
95
par passage du continu au discret. Ce n’est pas bouleversant, car l’argument utilisé en
temps continu est le même en substance que celui que l’on utilise traditionnellement en
temps discret.
3.2.4
Exemple de calcul de coe¢ cients : Cadre markovien
Ici on donne un exemple de la procédure générale expliquée en 3.1, 1.7 et la section
3.2.1. Il n’est jamais très facile de calculer les coe¢ cients du développement en chaos
d’une v.a. de la forme F = f (Bt ), où t est …xé et f est par exemple une fonction bornée.
Tout d’abord, le coe¢ cient d’ordre 0 du développement en chaos est l’espérance, qui vaut
E (F ) = Pt f (0), fPs g désignant le semi-groupe brownien.
Il est facile d’écrire explicitement le processus noté f
sg
…gurant dans la représen-
tation prévisible de la v.a. F (voir 1.7). En e¤et, par la propriété de Markov la martingale E (F j Fs ) peut s’écrire pour s < t sous la forme g (t
s; Bs ), où la fonction
g (r; x) = Pr (x; f ) est C 1 en (r; x) pour r > 0. Appliquant à cette fonction la formule
d’Itô, les termes à variation …nie disparaissent et il reste
F =f
Bt = Pt f (0) +
Z
t
gx0 (t
s; Bs ) dBs :
0
f1 (s) est le coe¢ cient du développement en chaos qui vaut E (
s ),
c-à-d. ici Ps 0; Pt0 s f =
Pt0 f (0), Pt0 f désignant naturellement la dérivée de Pt f . On notera que ce coe¢ cient ne
dépend pas de s. La v.a.
F =f
s
étant de la forme fs Bs , on peut itérer la construction,
Bt = Pt f (0) +
Pt0 f
(0)
Z
t
dBs +
0
Z
0
t
dBs
Z
s
Ps0
r
Xr ; Pt0 s f dBr ;
0
d’où le second coe¢ cient, lui aussi constant
f2 (r; s) = Pr 0; Pt0 s Ps0 r f = Pt00 f (0) :
Continuons l’irétation, et utilisant l’expression des intégrales itérées au moyen des poly96
nômes d’Hermite, on obtient tout le développement en chaos sous la forme
f
Bt =
X
n
Dn Pt f (0) t 2
n
hn (Bt )
:
n!
Le fait que les coe¢ cient soient des constantes peut se comprendre ainsi : il existe un
vaste groupe d’automorphismes mesurables de Wiener, qui échange les accroissements
dBs (s < t) mais préserve leur somme Bt , et le développement en chaos de f
Bt (sous
la forme courte par exemple) est invariant par ce groupe, de sorte que f (A) ne peut
dépendre que de jAj. La formule précédente peut encore s’interpréter comme une identité
dans L2 (N )
f (x) =
X
Dn P1 f (0)
n
hn (x)
:
n!
On retrouve la fonction génératrice des polynômes d’Hermite en prenant f (x) = eux ,
u2
Pt f = et 2 f . Noter que l’on a aussi d’après (hn ; hn )N = n!
f (x) =
X
(hn ; f )
n
hn (x)
;
n!
et par conséquent
(hn ; f ) = Dn P1 f (0) ;
ce qui équivaut à une autre expression classique des polynômes d’Hermite
x2
hn (x) = ( 1)n e 2 Dn e
3.2.5
x2
2
:
La formule de multiplication
Comme on le sait, la formule d’Itô revient à analyser le produit d’intégrales stochastiques. Nous allons maintenant illustrer l’é¢ cacité de la notation courte en présentant
la formule de multiplication des intégrales stochastiques qui sera un substitut pour la
formule d’Itô en dimension in…nie. Les méthodes présentées ici peuvent servir à dé…nir
97
des multiplications non commutatives, qui jouent un certain rôle en physique théorique.
R
P
La formule de multiplication h (C) = P
f (K + U ) g (L + U ) dU apparaît comme
K+L=C
la traduction globale de la règle de multiplication in…nitésimale (dXs )2 = ds : pour
R
R
multiplier f (A) dXA par g (B) dXB , il su¢ t de savoir multiplier dXA par dXB .
Nous allons d’abord établir rapidement la forme classique de la formule de multipli-
cation, qui concerne des intégrales multiples de fonctions symétriques
In (f ) =
Z
Rn
+
f (s1 ; :::; sn ) dXs1 :::dXsn :
Nous étenderons cette notation aux fonctions f 2 L2 Rn+ non nécessairement symétriques, en convenant que In (f ) = In (fs ), la fonction symétrisée de f (qui appartient
aussi à L2 , avec une norme au plus égale à celle de f ).
Etant données deux fonctions symétriques f et g de m et n variables respectivement,
nous dé…nissons leur contraction d’ordre p (où p est un entier
de n + m
n^m) comme la fonction
2p variables (non symétrique en général) donnée par
p
f ^ g (s1 ; ::; sm p ; t1 ; ::; tn p ) =
Z
f (s1 ; ::; sm p ; u1 ; ::; up ) g (up ; ::; u1 ; t1 ; ::; tn p ) du1 ::dup :
On a contracté successivement les indices qui se trouvent les plus rapprochés, mais pour
des raisons d’ordre esthétique seulement : f et g étant symétriques, le choix des indices
que l’on contracte est indi¤érent. La contraction de deux fonctions de L2 appartient
encore à L2 . On a en e¤et d’après l’inégalité de Schwarz (en language abrégé : les lettres
s, t, u désignent des paquets de variables, les mesures notées ds, dt, du peuvent être
di¤érentes)
Z
Z
2
f (s; t) g (t; u) dt
dsdu
Voici alors la formule de multiplication classique :
98
kf k2 kgk2 :
Théorème 6 Avec les notations ci-dessus, on a
In (f ) In (g) =
m^n
X
p!
p=0
m
p
n
Im+n
p
p
2p
f ^g :
Démonstration 7 Nous commençons par le cas où f = a
g = (a; b)p a
(m p)
b
(n p)
m
, g =b
n
p
, et alors f ^
(le produit scalaire (; ) est bilinéaire, non hermitien).
Commençons par un raisonnement formel. Nous introduisons deux variables r, s et
P
P
m
n
rappelons que E (ra) = rm Im am! , E (sb) = sn In an! . D’autre part, en utilisant
n
m
la valeur explicite des vecteurs exponentiels, on a
E (ra) E (sb) = E (ra + sb) ers(a;b) :
On obtient alors l’égalité cherchée en développant les exponentielles et en identi…ant les
coe¢ cients de rm sn des deux côtés. Pour rendre ce raisonnement rigoureux, il su¢ t
de véri…er que pour z complexe et f 2 L2 (R+ ) l’application z ! E (zf ) est entière
à valeurs dans Lp ( ) pour p = 2 et p = 4, et cela ne fait aucune di¢ culté puisque
R
la v.a. f (s) dXs est gaussienne. Par polarisation, on en déduit de In (f ) In (g) =
m^n
P m n
p
p! p p Im+n 2p f ^ g pour fm = a1 ::: an ; gn = b1 ::: bn (produits symép=0
triques). On l’étend par linéarité à des combinaisons linéaires de tels produits. En…n, si
f et g sont symétriques de carré intégrable, on les approche dans L2 par des combinaisons
linéaires fk , gk du type précédent ; Im (fk ) et In (gk ) tendent en probabilité vers Im (f ) et
In (g), d’où le même résultat pour leurs produits. D’autre part, les contractions sont des
opérateurs continues dans L2 .
Remarque 29 Il résulte aussitôt de la formule de multiplication que l’ensemble des
sommes …nies d’éléments des chaos de Wiener constitue une algèbre contenue dans
L2 ( ), et donc dans tout Lp ( ), p < 1.
Nous allons maintenant traduire la formule de multiplication en notation courte. Nous
considérons deux v.a. f , g et leur produit f g = h, dont nous écrivons les représentations
99
chaotiques, en désignant par la même lettre (de manière un peu abusive) la v.a. elle même
R
et la fonction qui la représente sur P : f = P f (A) dXA etc... Le problème consiste à
calculer h (A).
Sur P nous disposons de la mesure dA, et des opérations usuelles sur les ensembles,
qui sont mesurables de P
P dans P. La notation A + B désigne la réunion A [ B
si A \ B = ?, et sinon elle est non dé…nie (et alors f (A + B) = 0 par convention,
pour toute fonction f sur P). Nous partons de la formule de multiplication classique
m^n
P m n
p
In (f ) In (g) =
p! p p Im+n 2p f ^ g , que nous allons exactement retraduire en
p=0
notation courte. Au lieu de Im (f ), nous nous intéressons à Jm (f ) = Im (f ) =m! (l’intégrale sur le simplexe), de sorte que nous récrivons la formule
Jm (f ) Jn (g) =
X
p
(m + n 2p)!
Jm+n
p! (m p)! (n p)!
2p
(hp ) ;
p
où hp est ici la fonction symétrisée de f ^ g. Posons alors A = fs1 ; :::; sm p g 2 Pm p ,
B = ft1 ; ::; tn p g 2 Pn p , U = fu1 ; :::; up g 2 Pp , C = fs1 ; :::; sm p ; t1 ; ::; tn p g 2 Pm+n
2p .
p
La fonction non symétrisée f ^ g dépend des deux ensembles de variables A, B et l’on
peut écrire
p
f ^ g (A; B) = p!
Z
f (A + U ) g (U + B) dU:
Pp
Nous avons écrit A + U , B + U , car
1) f , g sont symétriques, de sorte que l’ordre des variables importe peu,
2) U (ensemble variable) est p.s. disjoint des ensembles …nis donnés A, B. Pour
symétriser cette fonction nous choisissons deux parties A0 et B0 de C telles que C =
A0 + B0 , comportant respectivement m
p et n
100
p éléments, et nous faisons opérer
toutes les permutations
hp (C) =
1
(m + n
=
1
(m + n
des éléments de C
2p)!
X
p
f ^ g ( (A0 ) ; (B0 ))
X
2p)!
X
(A0 ) = K
K +L=C
jKj = m
p; jLj = n
X
(m p)! (n p)!
(m + n 2p)!
=
p
f ^ g (K; L)
(B0 ) = L
p
p
f ^ g (K; L) :
K +L=C
jKj = m
p; jLj = n
p
Finalement, il vient
Z
Z
f (A) dXA
Pm
g (B) dXB
=
Pn
avec
p=0
Z
X
hp (C) =
Pm+n
hp (C) dXC ;
2p
f (K + U ) g (L + U ) dU:
Pp
K +L=C
jKj = m
m^n
XZ
p; jLj = n
p
La somme sur p est absorbée dans l’intégration sur P, et les entiers m et n disparraissent
complètement. Nous obtenons une formule d’allure beaucoup plus simple :
Théorème 7 Considérons deux v.a.
f=
Z
f (A) dXA ; g =
P
Z
g (B) dXB ;
P
appartenant à une somme …nie de chaos de Wiener, et soit h = f g =
101
R
P
h (C) dXC leur
produit. Alors on a
h (C) =
Z
X
f (K + U ) g (L + U ) dU:
P K+L=C
Cette formule est équivalente à In (f ) In (g) =
m^n
P
p!
p=0
m
p
n
p
Im+n
p
2p
f ^ g , qu’elle
ne fait que traduire. Il aurait été plus bref de l’établir directement à partir du cas des
vecteurs exponentiels.
Maintenant que l’on dispose d’une notation maniable, on peut chercher à comprendre
sur cette formule l’associativité de la multiplication. Cela amène à dégager une propriété
fondamentale de la mesure dA sur P, qui supplée en partie à l’absence de mesure de
Haar.
Théorème 8 Soit f (A; B) une fonction positive mesurable sur P
P, et soit F (A) la
fonction (positive, mesurable) sur P dé…nie par
F (M ) =
X
f (A; B) :
Z
f (A; B) dAdB:
A+B=M
Alors on a
Z
F (M ) dM =
P
P P
Démonstration 8 Nous commençons par remarquer que la fonction (non nécessairement positive) sur P
U (A) =
Y
u (s) ;
s2A
qui pour u 2 L2 , représente le vecteur exponentiel E (u), est intégrable sur P ssi u est
intégrable sur R+ , et alors
Z
P
U (A) dA =
X
n
R
u (s) ds
n!
n
R
=e
u(s)ds
:
Si v désigne une seconde fonction intégrable, et que l’on prend f (A; B) = U (A) V (B),
102
la fonction F (M ) est du même type :
F (M ) =
La formule
R
P
F (M ) dM =
R
P P
Y
(u + v) (s) :
f (A; B) dAdB se réduit alors à la propriété multipli-
cative de l’exponentielle. Pour passer au cas général, on remarque que les combinaisons
Y
linéaires de fonctions du type U (A) =
u (s), avec juj 1 à support compact, forment
s2A
une algèbre de fonctions bornées sur P, contenant les constantes et engendrant la tribu bo-
rélienne. On peut alors raisonner par classes monotones. On pourrait aussi raisonner directement, en supposant f (A; B) nulle si jAj =
6 p, jBj =
6 q, donc F (M ) = 0 si jM j =
6 p+q.
La signi…cation combinatoire de la formule apparaît alors clairement. Voici plusieurs cas
R
R
utiles de P F (M ) dM = P P f (A; B) dAdB. Lorsque f (A; B) = h (A + B) IfjBj=kg on
obtient
Z
h (A + B) dAdB =
jBj=k
Z
h (M )
et plus généralement, lorsque f (A; B) = h (A + B)
Z
h (A + B)
jAj jBj
dAdB =
jBj=k
Z
jM j
dM;
k
jAj jBj
, on obtient
h (M ) ( + )jM j dM:
Revenons à l’associativité. Nous considérons trois fonctions f , g, h sur P et posons
k = f g. Alors on a (en continuant à noter par le même symbole les v.a. et les fonctions
sur P qui les représentent)
kh (C) =
k (H + Z) =
Z
Z
dz
X
k (H + Z) h (W + Z)
H+W =C
dN
!
X
A+B=H+Z
103
!
f (A + N ) g (B + N ) :
Une partition A + B = H + Z peut se représenter comme
Z = L + M; H = U + V; A = U + L; B = V + M;
et le théorème précédent nous dit que, si Z est une variable d’intégration parcourant P,
on obtient la même intégrale en partageant Z en somme L + M et en considérant L, M
comme des variables d’intégration indépendantes. Donc notre triple produit peut s’écrire
Z
dLdM dN
P3
X
f (U + L + N ) g (V + M + N ) h (W + L + M ) ;
U +V +W =C
qui est symétrique en f , g, h. L’associativité est établie.
Remarque 30 La règle de multiplication in…nitésimale nous donne
dXA dXB = d (A \ B) dXA4B ;
4 étant la di¤érence symétrique, et d (A \ B) étant un scalaire (le sens de ces notations
s’éclaircira sur un exemple concret, mettons A = fs; t; ug et B = fv; ug). Pour obtenir
R
l’expression de f g = h = h (C) dXC , il reste à résoudre l’équation A 4 B = C, sous
la forme A = K + M , B = L + M , K et L formant une partition de C et M = A \ B
devenant la variable d’intégration. La règle de multiplication in…nitésimale pour un M.B.
de variance di¤érente s’obtient en remplaçant ds par
2
ds, et la formule de multiplication
globale correspondante s’écrit (en conservant les mêmes notations)
h (C) =
Z
X
f (K + U ) g (L + U )
2jU j
dU:
P K+L=C
Pour
= 0 on obtient une multiplication (associative) intéressante, parfois appelée pro-
duit de Wick.
104
3.3
Éléments d’analyse de Wiener
L’analyse en dimension in…nie est très riche et ancien. Qui a peu intéressé les probabilistes jusqu’à une date récente, à l’exception de l’école de T. Hida (et des premiers travaux
de P. Lévy). Les physiciens se sont aperçus depuis longtemps que les structures fondamentales de la théorie quantique des champs peuvent être décrite en termes d’opérateurs
sur un espace L2 ( ) associé à une certaine mesure gaussienne. Les travaux d’analyse sur
ce type d’espaces ont été nombreux.
3.3.1
Fonctions de Cameron-Martin
De même que le calcul di¤érentiel classique commence avec les dérivées et dérivées
partielles, il est naturel de commencer l’analyse de Wiener par la dérivation. Cela nous
oblige d’abord à dé…nir la classe des vecteurs par rapport auxquels on peut naturellement
dériver sur l’espace de Wiener.
Dé…nition 30 On dit qu’une fonction réelle u sur R+ , continue et nulle en 0, est une
Rt
fonction de Cameron-Martin si elle est de la forme u (t) = 0 h (s) ds avec h 2 L2 (R+ ).
Plaçons nous sur l’espace de Wiener canonique : rappelons que
est l’ensemble des
applications continues de R+ dans R nulles en 0, avec ses coordonnées Xt et la mesure de
Wiener P . Considérons la loi Q = E (h) P équivalente à P . Comme X est à acroissements
indépendants, on véri…e sans mal que la martingale fondamentale du changement de loi,
M = E (E (h) j F1 ), est formée des vecteurs exponentiels
Et (h) = exp
On a donc
dMt
Mt
Z
t
h (s) dXs
0
1
2
Z
t
h2 (s) ds :
0
= dLt = h (t) dXt . D’après le théorème de Girsanov (voir 1.10), le pro-
cessus Yt = Xt
hL; Xit est une martingale locale (continue) sous la loi Q, et ce dernier
Rt
crochet est égale à 0 h (s) ds = u (s). La martingale locale Yt = Xt u (t) est un M.B.
sous la loi Q.
105
Si f est une v.a. sur C (R+ ; R), dé…nie P -p.s, on peut donc évaluer de deux manières
l’intégrale de f par rapport à la mesure de Wiener P :
X ) ou EQ (f
EP (f
Y );
la seconde espérance s’écrit
Z
f (!
u) exp
Z
h (s) dXs (!)
khk2
2
!
Remplaçons dans cette formule f par f E( h) ; comme on a
intégrale devient simplement f (!
P (d!) :
R
h (s) du (s) = khk2 , cette
u) P (d!), et nous obtenons le théorème de Cameron-
Martin :
Théorème 9 Soit u une fonction de Cameron-Martin, de dérivée h. L’image
uP
de la
mesure de Wiener P par la translation associée à u, c-à-d
Z
f (!)
uP
(d!) =
Z
f (!
u) P (d!) ;
est absolument continue par rapport à P , et admet pour densité le vecteur exponentiel
E ( h).
On peut montrer que les fonctions de Cameron-Martin sont les seules pour lesquelles
cette propriété de continuité absolue est satisfaite.
L’énoncé respecte les conventions usuelles en analyse pour la translation d’une mesure,
mais la plupart du temps on s’intéressera à ! + u au lieu de !
u, et la densité sera
E (h).
3.3.2
Dérivées et gradient
Etant donnée une v.a. f (par exemple, au moyen de son développement en chaos), la
dérivée de f suivant un vecteur u sera naturellement dé…nie comme limite au sens L2 de
106
quotients di¤érentiels
1
lim (f ( + "u)
" !0 "
f ( )):
Comme f n’est a priori qu’une classe de fonctions, la nécessité de dé…nir la classe f ( + u)
nous impose de prendre pour u un vecteur de Cameron-Martin. Introduisant la dérivée h
de u, nous parlerons plutôt (de manière incorrecte, mais commode) de derivée suivant h,
notée Dh . Une dé…nition précise de Dh f pourrait donc être la suivante : f appartient au
domaine de Dh , et on a Dh f = g, ssi f 2 L2 ( ), et les quotients di¤érentiels lim 1" (f ( +
"u)
" !0
2
f ( )) convergent dans L vers g. En fait cette dé…nition n’est ni commode, ni
vraiment utile, parce que les translations n’opèrent pas continument dans L2 . Faisons
d’abord un calcul sur un élément f = In (fn ) du n
ieme chaos, où fn est symétrique.
Dans l’expression
f (!) =
Z
fn (s1 ; :::; sn ) dXs1 (!) :::dXsn (!) ;
remplaçons ! par ! + "u, donc dXs (!) par dXs (!) + "h (s) ds et développons en ". Nous
obtenons une somme
n
X
"p n (n
p
1) ::: (n
p) In
fn ` h
p
p
:
i=1
La translation est donc continue sur le n
ieme chaos (elle préserve la somme des n
premiers chaos, et opère continument sur cet espace), et nous obtenons pour Dh f un
élément du (n
1)
ieme chaos
1
Dh In (fn ) = nIn
1
f `h :
A nouveau, la notation courte fait merveille pour exprimer ce résultat : si f =
avec f (A) = 0 pour jAj > n, alors ' = Dh f est du même type, et l’on a
' (A) =
Z
f (A + s) h (s) ds:
107
R
f (A) dXA
Par conséquent, j' (A)j2
Z
P
khk2
2
2
j' (A)j dA
khk
R
jf (A + s)j2 ds et
Z
2
P
2
jf (A + s)j dAds = khk
Z
P
jf (A)j2 jAj dA:
On voit que, si l’on oublie à présent l’appartenance à une somme …nie de chaos, on peut
R
dé…nir Dh par ' (A) = f (A + s) h (s) ds, sous la condition ' 2 L2 , toujours satisfaite
si
Z
P
jf (A)j2 jAj dA < 1;
que nous interpréterons plus loin comme l’appartenance au domaine de la racine carrée
1
N 2 de l’opérateur de nombre N . Par exemple, tous les vecteurs exponentiels E (k) satisfont
R
R
à P jf (A)j2 jAj dA < 1, et on a d’après ' (A) = f (A + s) h (s) ds
Dh E (k) = (h; k) E (k) :
Calculons aussi l’adjoint de l’opérateur Dh : si g =
de Dh , et N = Dh g, on a
N (M ) =
(M
X
g (M
R
g (M ) dXM appartient au domaine
s) h (s) ;
s2M
s, notation abrégée pour M n fsg). En e¤et, nous avons
(g; Dh f ) =
Z
g (A) h (s) f (A + s) dAds =
Z
j (A; B) dAdB;
en posant j (A; B) = g (A) f (A + s) h (s) si B = fsg et 0 si jBj =
6 1. Utilisant h (C) =
R
R
P
f (K + U ) g (L + U ) dU , nous écrivons cela J (M ) dM avec
P
K+L=C
J (M ) =
X
U +V =M
j (U; V ) =
X
s2M
108
g (M
s) h (s) f (M ) ;
qui correspond bien au produit scalaire (N ; f ) avec N donné par
N (M ) =
X
g (M
s) h (s) :
s2M
Les opérateurs Dh et Dh , ou plutôt leurs versions algébriques (sur l’espace de Fock plutôt
que l’espace L2 ( )) jouent un grand rôle dans le formalisme mathématique de la physique
quantique, où ils prennent les noms respectifs d’opérateurs de création et d’annihilation.
On prendra seulement garde aux di¤érences entre les structures bilinéaire et hermitienne !
Ils est facile de voir que les combinaisons linéaires …nies d’intégrales stochastiques
multiples appartiennent au domaine de l’opérateur Dh . On peut utiliser cela pour véri…er
que l’opérateur Dh est fermable (de même pour Dh ).
3.3.3
L’opérateur de gradient
En géométrie di¤érentielle sur Rn , le vecteur rf est caractérisé par la relation (ei ; rf )=Di f ,
la dérivée partielle de f suivant ei . Ici, les indices i = 1; :::; n sont remplacés par les indices continus t 2 R+ , et le vecteur rf s’interprète comme un processus (non adapté en
général).
Dé…nition 31 La v.a. f 2 L2 ( ) appartient au domaine de l’opérateur de gradient r
(s) de R+ dans L2 ( ) telle que (Dh f étant
ss’il existe une application mesurable s !
R
dé…ni par ' (A) = f (A + s) h (s) ds)
Z
Ce processus f
k
2
sk
2
ds < 1 ; 8h 2 L (R+ ) Dh f =
s g,
Z
h (s)
s ds:
unique aux ensembles négligeables près en s, est appelé le gradient
R
de f , et noté rf . Il est clair sur ' (A) = f (A + s) h (s) ds que si le gradient existe, on
a pour presque tout s
s
=
Z
f (A + s) dXA ;
109
et que la condition d’appartenance à L2 du processus f
R
tion P jf (A)j2 jAj dA < 1
Z
P
2
jf (A + s)j dAds =
Z
P
sg
est alors exactement la condi-
jf (A)j2 jAj dA < 1;
qui inversement entraîne l’existence p.p des vecteurs
s
et l’existence du gradient. La
notion de gradient est donc en substance plus simple que celle de dérivée suivant h.
D’après la dé…nition même du gradient, c’est un opérateur fermé. Cela permet souvent
d’établir qu’une v.a. admet un gradient par un procédé d’approximation, sans connaître
son développement en chaos.
Variante
En calcul di¤érentiel classique, plutôt que de parler du vecteur des dérivées partielles
P
Di f , on préfère souvent parler de la forme di¤érentielle Di f dxi , linéaire en les variables
i
dxi . Si nous voulons faire ici l’opération analogue, il nous faut apporter une di¤érentielle
pour chaque point t, et une bonne manière de faire cela consiste à introduire un second
M.B. Y indépendant de X, et à appeller df une v.a. sur l’espace probabilisé produit,
appartenant au premier chaos en Y
df =
Z
f (A + s) dXA dYs :
Bien entendu, l’opérateur r agit comme une dérivation par rapport au produit ordinaire
(de Wiener) des v.a. Nous allons véri…er cela de manière combinatoire, sur les développements en chaos. Cela aura une conséquence amusante : r agit aussi comme une dérivation
R
P
par rapport à tous les produits dé…nis en h (C) = P
f (K + U ) g (L + U ) 2jU j dU .
K+L=C
Soit h un produit f g, avec nos notations usuelles, de sorte que
h (M ) =
Z
X
f (A + U ) g (B + U )
A+B=M
110
2jU j
dU
rs h (M ) =
Z
X
f (A + U ) g (B + U )
2jU j
dU:
A+B=M +s
Cette somme se partage en deux, suivant que l’on attribue s à A ou bien à B, et on
obtient ainsi le développement chaotique de (rs f ) g + f (rs g).
3.3.4
Divergence et intégrale de Skorohod
Nous passons à l’étude de la divergence qui est l’opérateur adjoint du gradient comme
on l’a vu au 3.1. Cet opérateur coïncide avec l’intégrale de Skorohod, l’une des extensions
de l’intégrale stochastique d’Itô aux processus non adaptés. Depuis lors, le sujet s’est
alors rapidement développé, menant à l’étude des divergences itérées comme intégrales
de Skorohod multiples. L’opérateur de divergence itéré
k
, adjoint du gradient itéré rk ,
va transformer un (p + k) processus (symétrique) G en un processus
k
G, de sorte que
l’on ait pour tout p processus F
F;
k
G = rk F; G :
Nous calculons le côté droit sous la forme
k
r F; G = k!
Z X
F (M + B; N
B) G (M; N ) dM dN:
B N
(les conditions jN j = p + k, jBj = k peuvent être omises, car les autres dimensions ne
contribuent pas à l’intégrale)
k
r F; G
= k!
= k!
d’après
Z
P
Z
Z
X
F (M + B; C) G (M; B + C) dM dN
B+C=N
F (M + B; C) G (M; B + C) dM dBdC;
F (M ) dM =
Z
P P
111
f (A; B) dAdB;
nous posons M + B = U et utilisons à nouveau
obtient
k
r F; G = k!
Z
X
R
F (M ) dM =
P
F (U; C)G(U
R
P P
f (A; B) dAdB, on
B; C + B)dCdU:
M +B=U
Nous obtenons donc la formule importante
k
G = k!
Z
X
G(M
B; N + B)dXM dYN :
B M;jBj=k
En particulier, si k = 1
G=
Z X
G(M
s; N + s)dXM dYN ;
s2M
et pour fGs g au sens usuel, nous obtenons la formule donnant son intégrale de Skorohod
G=
Z X
G(M
s; s)dXM :
s2M
Pourquoi appeler cela une intégrale ? Supposons que le processus fGs g soit adapté, ce
P
qui signi…e que G(A; t) n’est pas di¤érent de 0 si A t. On voit alors que la somme
s2M
est réduite à un seul terme, correspondant au dernier élément de M , et on véri…e alors
R
aussitôt que ceci correspond au développement en chaos de l’intégrale d’Itô Gs dXs . De
même soit j un k processus (symétrique) déterministe, c-à-d ne dépendant pas du M.B.
X mais seulement du temps. Avec le point de vue adopté plus haut, c’est un élément du
k
ieme chaos en Y seul. Alors sa divergence d’ordre k est la v.a.
k
j = k!
Z
j (A) dXA :
Nos intégrales stochastiques multiples étant prises sur le simplexe, l’insertion de k! revient
à travailler sur l’espace entier, et nous voyons que la k
ieme divergence s’interprète bien
comme une intégration. Les calculs précédents ont été très formels. Nous nous servirons
112
pour cela du calcul suivant : Etant donnés deux (p + k) processus G et G0 , on a
k
k
G;
G0
(k!)2
=
Z
X
B
M; jBj = k
B0
M; jB 0 j = k
G (M
B; N + B) G0 (M
B 0 ; N + B 0 ) dM dN:
0
Posons U = B \ B 0 , jU j = k j, puis H = B
, H 0 = BU , en…n M = U + H + H 0 + V ;
U
R
R
F (M ) dM = P P f (A; B) dAdB transforme cette intégrale en
P
XZ
j k
jHj=jH 0 j=j
jU j=k j
G (V + H 0 ; N + U + H) G0 (V + H; N + U + H 0 ) dU dV dHdH 0 dN:
Comme G (A; B) = 0 pour jN j =
6 p + k il n’est pas nécessaire que jN j = p. Posons encore
R
R
N + U = W et appliquons jBj=k h (A + B) dAdB = h (M ) jMk j dM pour H, H 0 , V
…xés. Le côté droit de
k
G;
k
(k!)2
G0
=
Z
X
B
M; jBj = k
B0
M; jB 0 j = k
G (M
B; N + B) G0 (M
B 0 ; N + B 0 ) dM dN
devient
XZ
j k
jHj=jH 0 j=j
jW j
G (V + H 0 ; W + H) G0 (V + H; W + H 0 ) dV dW dHdH 0 :
k j
Dans le coe¢ cient binômial, on remplace jW j par p + k
j, et on le sort de l’intégrale.
Comme la formule est tordue en H et H 0 , ceci est di¢ cile à calculer, mais l’inégalité de
Schwarz permet d’assurer que cette intégrale existe, et de la majorer, en utilisant une
113
norme2 hilbertienne détordue
kGk2k
X p+k j Z
2
=
jG (V + H 0 ; W + H)j dV dW dHdH 0
k
j
jHj=jH 0 j=j
j k
Z
X p+k j
p+k
jM j
=
jG (M; N )j2
dM dN;
k j
j
j
j k
qui est l’objet naturel à considérer ici. Nous obtenons alors une majoration
k
X p+k j
k j
j k
2
G
p+k
j
Z
jG (M; N )j2
jM j
dM dN:
j
Explicitons la formule
k
G;
k
G0
(k!)2
=
Z
X
G (M
B
M; jBj = k
B0
M; jB 0 j = k
B; N + B) G0 (M
B 0 ; N + B 0 ) dM dN;
pour l’intégrale de Skorohod ordinaire (première divergence d’un 1-processus). Il apparaît
deux termes
0
Z
Z
G (M; s) G (M; s) dM ds + G (M + s; t) G0 (M + t; s) dM dsdt
Z
Z
0
=
(Gs ; Gs ) ds + (rs Gt ; rt G0s ) dsdt:
h G; G i =
0
Remarque 31 On a des calculs entièrement analogues en cherchant à exprimer que F
admet un gradient d’ordre k dans L2 . On a
rk F; rk F 0
=
k!2
Z
X
B
N; jBj = k
B0
N; jB 0 j = k
F (M + B; N
114
B) F 0 (M + B 0 ; N
B 0 ) dM dN:
Comme ci-dessus, on pose B = U + H, B 0 = U + H 0 , N = U + H + H 0 + V , avec cette
fois jHj = jH 0 j = j, jU j = k
X Z
j k^p
jHj=jH 0 j=j
jU j=k j;jV j=p j
j, jV j = p
j. L’intégrale à droite plus haut peut s’écrire
F (M + U + H; V + H 0 ) F 0 (M + U + H 0 ; V + H) dU dV dHdH 0 dN
La norme2 détordue vaut alors
X Z
j k^p
=
X Z
j k^p
=
X
j k^p
2
jHj=jH 0 j=j
jU j=k j;jV j=p j
jKj=k;jSj=p
k
j
p
j
jF (M + U + H; V + H 0 )j dU dV dHdH 0 dN
k
j
Z
p
jF (M + K; S)j2 dM dKdS
j
jF (R; S)j2
jSj
dS:
k
Pour les gradients itérés de v.a., la sommation dans la formule
rk F; rk F 0
=
k!2
Z
X
F (M + B; N
B
N; jBj = k
B0
N; jB 0 j = k
B) F 0 (M + B 0 ; N
B 0 ) dM dN;
ne porte que sur B = B 0 = N = U , H = H 0 = ?
rk F; rk F 0
k!2
=
f (M + N ) f 0 (M + N ) dM dN
jN j=k
=
3.4
Z
Z
f (R) f 0 (R)
jRj
dR:
k
Étude comparative
Nous allons présenter une étude comparative sous forme d’un tableau récapitulatif. On
ne considérera que l’espace de Fock bosonique. Z plus bas sera un processus à variations
bornées. M est l’un quelconque des processus fondamentaux de la section 2.2.3 et
115
i
0
i0
et
ii0
les mesures qui y …gurent.
PROBABILITÉS CLASSIQUES
1)
2)
: espace des éventualités élémentaires !
F : tribu sur
(ensemble des événements de
)
3) ! 2
4) E 2 F
5) X : variable aléatoire
6) Absent
7) P : probabilité sur l’espace ( ; F)
8) E (X)
9) Espace canonique (isomorphe à un espace de Fock symétrique)
10) Chaos d’ordre n
11) Intégrale stochastique multiple
12) Intégrale de Skorohod
13) Dérivée de Malliavin
14) Intégrale stochastique
R
Xs dMs et
15) di¤érentielle stochastique dMs = Ms+
M
16)
Z
M
t
0
Z
0
0
116
s
Ms
PROBABILITÉS NON COMMUTATIVES
1) H : espace de Hilbert séparable
2)
P (H) : l’ensemble des projections sur H
(ensemble des sous-espaces fermés de H)
3) j uihu j, u : vecteur de H
4) PE 2 P (H), opérateur de projection sur le sous-espace E
5)
A 2 O (H) : opérateur auto adjoint dans
l’espace des observables
6) États , quanti…cation, etc.
7) tr ( PE ), E un sous-espace fermé de H
8) tr ( A) voir 2.2
9) Espace de Fock symétrique
s
(H)
10) Espace à n particules
11) isométrique à H
n
12) Opérateur de création
13) Opérateur d’annihilation
R
Intégrale stochastique Xs dMs est assurée par
14) les processus martingales non commutatives des
opérateurs de création, conservation et d’annihilation
15) dMs
M1
1
M2
16)
2
Am1
hhm1 ; vii
Am2
hhH1 u; vii hhu; m1 ii
hhu; m2 vii hhu; H2 vii hhm2 ; vii
Am2
Am1
hhm1 ; m2 ii
Am1
Am2
H2
M1 M2
H1
Am1
H1
Am2
H2
hhm1 ; H2 vii
0
hhH1 u; m2 ii hhH1 u; H2 vii 0
0
0
0
117
Abréviations
E.D.P. : équation aux dérivées partielles,
E.D.S. : équation di¤érentielle stochastique,
M.B. : le mouvement brownien,
ns, pm, nm : nano second, pico mètre, nano mètre,
p.p. : presque partout,
p.s. : presque sûrement,
ssi : si et seulement si,
tq : tel que, telle que, tels que, telles que,
v.a. : variable aléatoire,
Glossaire de notations
Bb : l’ensemble des fonctions boréliennes bornées,
B(E) : la tribu de Borel sur E,
C 1;2 (R+ ; R) :
l’ensemble des fonctions une fois continûment di¤érentiables
sur R+ et deux fois di¤érentiables sur R,
C 2 : l’ensemble des fonctions 2 fois continûment dérivables,
C(R+ ; R) : l’ensemble des fonctions continues de R+ dans R,
C0 ([0;0
T ]) : 1
l’ensemble des fonctions réelles continues sur [0; T ] qui s’annulent à l’in…ni,
Cnp = @
n
p
A
8
< 1 si i = j
,
ij : symbole de Kronecker tq ij =
: 0 si i 6= j
L2 ( ; F; P ) = fX; X est F-mesurable par rapport à P /E(X 2 ) < +1 g,
L(X; X) : l’espace des opérateurs linéaires sur X,
(E) : la tribu engendrée par E,
118
Bibliographie
[1] M. Arndt , O. Nairz, J. Voss-Andreae, C. Keller, G. van der Zouw, A. Zeilinger, «
Wave-particle duality of C60 » , dans Nature, vol. 401, 1999, p. 680-682.
[2] C. Aslangul. Mécanique quantique (1. Fondements et premières applications), De
boeck 2007.
[3] N. BERGLUND. Martingales et calcul stochastique. M2 Université d’Orléans 2012.
[4] F. BERNARD. Introduction à la mécanique quantique (cours d’ouverture, E. P. F.
3ieme année) 2010.
[5] P. BIANE. Itô’s stochastic calculus and Heisenberg commutation relations, Stoch.
Proc. Appl. 120, p. 698-720, 2010.
[6] BLOKHINTSEV. Principes de mécanique quantique, Mir Moscou 1981.
[7] C. CHORRO. Cours de calcul stochastique, Master M2 IRFA Septembre 2006.
[8] C. DELLACHERIE et P. A. MEYER. Probabilités et potentiel, Tome II, Hermann.
[9] C. DELLACHERIE, B.MAISONNEUVE et P. A. MEYER. Probabilités et potentiel,
Tome V, Hermann 1992.
[10] R. DURRET. Brownien motion and Martingales in Analysis, Wadsworth 1984.
[11] N. EL KAROUI, E.PARDOUX. Modèles de di¤usion, applications statistiques et
…nancières. Ecole polytechnique 1998.
[12] R. P. FEYNMAN, A. R. HIBBS. Quantum Mechanics and Path Integrals 1965.
[13] F. R. GANTMACHER. The Theory of Matrices. Volume one, 1977 by Chelsea
Publishing Company.
119
[14] J. GRIBBIN. La physique quantique, PEARSON Education France 2003.
[15] F. JEDRZEJEWSKI. Modèles aléatoires et physique probabiliste, Springer-Verlag
France 2009.
[16] I. KARATZAS, S. SHREVE. Brownian motion and stochastic calculus, SpringerVerlag, 1988.
[17] J. F. LE GALL. Mouvement brownien et calcul stochastique .Cours de Master 2,
2008-2009.
[18] Mouvement Brownien, Intégrale Stochastique. Séminaire des doctorants Bordeaux,
mercredi 12 mars 2003.
[19] D. NUALART. The Malliavin Calculus and Related Topics, Springer-Verlag 1995.
[20] K. R. PARTHASARATHY. An Introduction to Quantum Stochastic Calculus, Birkhäuser Verlag 1992.
[21] N. PRIVAULT. Stochastic Analysis in Discrete and Continuous Settings, Lecture
Notes in Mathematics 1982 (p59-p112), Springer-Verlag Berling Heidelberg 2009.
[22] L. C. G. ROGERS D.WILLIAMS. Di¤usions, Markov Processes, and Martingales
volume one : Foundations. Wiley 1979.
[23] V. S. VARADARAJAN.Geometry of Quantum Theory, Second Edition, Springer
Berlin 1985.
120
‫مـــلــخــــص‬
‫في هذه المذكرة نقوم بإعطاء عناصر المقارنة بين حساب ماليافان و نظرية االحتماالت غير التبديلية‬
‫ نعطي أوجه التشابه و التبسيط التي من بينها يظهر برهان جديد لصيغة تايلور المستخرجة من‬.‫المجردة‬
‫ نستعمل القواعد الرياضية لفضاءات فوك الكالسيكية‬.‫صيغة الغرانج التي منها تأتي التكرارات المتتالية‬
‫ نعطي في الفصل األول‬. ‫وغير التبديلية أيضا و نستخدم مفاهيم التكامل العشوائي وغير التبديلي‬
.‫االحتماالت الكالسيكية و في الفصل الثاني مدخل الى ميكانيك الكم و االحتماالت غير التبديلية‬
.‫ ميكانيك الكم‬,‫ الحساب العشوائي‬,‫ فضاء فوك‬,‫ االحتماالت غير التبديلية‬,‫ حساب ماليافان‬:‫كلمات مفتاح‬
Résumé
Dans ce mémoire, on donne des éléments de comparaison entre le calcul de
Malliavin et la théorie des probabilités non commutatives abstraite. En outre, on
donne des arguments de similarité et de vulgarisation parmi lesquels figure une
nouvelle démonstration de la formule de Taylor, à partir de la formule de Lagrange,
en procédant à des itérations successives. Les bases mathématiques des espaces
de Fock classiques et non commutatifs sont considérées ; ainsi que quelques notions
d’intégration stochastique classique et non commutative. En guise de complétude, on
étudie au chapitre 1 les probabilités classiques et au chapitre 2 une introduction à la
mécanique quantique et les probabilités non commutatives.
Mots-clés: Calcul de Malliavin, probabilités non commutatives, espace de Fock,
calcul stochastique, mécanique quantique.
Abstract
In this Thesis some Comparisons between the Malliavin Calculus and the theory
of abstract non commutative probability are given. We give arguments of similarity
and vulgarization among which we find a new proof of the formula of Taylor, starting
from the formula of Lagrange, proceeding through successive iterations. The
mathematical foundations of classical and non commutative Fock spaces are
considered, as well as some notations of classical and non commutative stochastic
integration. For completeness, we give in chapter 1 the classical probability and in
chapter 2 an introduction to quantum mechanics and non commutative probability.
Key-words: Malliavin calculus, non commutative probability, Fock space,
stochastic calculus, quantum mechanic.
Téléchargement