REPUBLIQUE ALGERIENNE DEMOCRATIQUE ET POPULAIRE MINISTERE DE L’ENSEIGNEMENT SUPPERIEUR ET DE LA RECHERCHE SCIENTIFIQUE. UNIVERSITE FERHAT ABBAS-SETIF. MEMOIRE Présenté à la Faculté des Sciences Département de Mathématiques Pour L’obtention du diplôme de MAGISTER OPTION : Mathématiques Fondamentales Par Melle : BOUFELGHA Nabila THEME Les probabilités non commutatives et représentation probabiliste à la solution de l'équation de Schrödinger. Soutenu le : 19 /9 /2013. Devant le jury : Président Encadreur Examinateur Pr. ZIADI Abdelkader Pr. BENCHERIF MADANI Abdelatif Pr. MANSOURI Abdelaziz Université de Sétif. Université de Sétif. Université de Sétif. Remerciements J'exprime toute ma reconnaissance à monsieur A. BENCHERIF MADANI, Professeur à l'université de Ferhat Abbas Sétif, pour avoir assuré l'encadrement de ce travail. Je le remercie pour son soutien, son orientation et ses conseils. Je tiens aussi à remercier vivement Monsieur président d'avoir accepté de présider ce jury. Enfin, je remercie toute personne ayant participé de près ou de loin pour .la réalisation de ce travail N . BOUFELGHA Table des matières Introduction 3 1 Histoire de la mécanique quantique 7 1.1 Panorama de la mécanique classique . . . . . . . . . . . . . . . . . . . . 7 1.2 Concepts fondamentaux . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 1.3 Bref historique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 1.3.1 De la mécanique classique à la mécanique quantique . . . . . . . . 12 1.3.2 La mécanique quantique depuis 1925 . . . . . . . . . . . . . . . . 13 1.4 Les lois de rayonnement d’un corps noir . . . . . . . . . . . . . . . . . . . 15 1.4.1 Loi de Wien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 1.4.2 Loi de Rayleigh-Jeans . . . . . . . . . . . . . . . . . . . . . . . . 16 1.4.3 Loi de Max Planck . . . . . . . . . . . . . . . . . . . . . . . . . . 18 1.5 Les principaux modèles atomiques . . . . . . . . . . . . . . . . . . . . . . 18 1.6 Probabilité, Fonction d’onde, Equation de Schrödinger . . . . . . . . . . 20 1.6.1 Description probabiliste et densité de probabilité . . . . . . . . . 20 1.6.2 Fonction d’onde . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 1.6.3 Equation de Schrödinger . . . . . . . . . . . . . . . . . . . . . . . 21 1.7 Notations de Dirac . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 1.8 Ondes de De Broglie et dualité onde-corpuscule . . . . . . . . . . . . . . 25 1.9 Le principe d’incertitude de Heisenberg . . . . . . . . . . . . . . . . . . . 27 1.10 Les axiomes de base de la mécanique quantique . . . . . . . . . . . . . . 27 1 1.11 Résumé des relations entre mécanique classique et mécanique quantique . 31 1.12 Les grands hommes de la mécanique quantique . . . . . . . . . . . . . . . 33 2 Probabilité non commutative 36 2.1 Probabilité classique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 2.1.1 Espace fondamental . . . . . . . . . . . . . . . . . . . . . . . . . . 37 2.1.2 Indépendance, espérance conditionnelle . . . . . . . . . . . . . . . 39 2.1.3 processus stochastiques . . . . . . . . . . . . . . . . . . . . . . . . 41 2.1.4 Mouvement brownien . . . . . . . . . . . . . . . . . . . . . . . . . 43 2.1.5 Processus de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . 47 2.1.6 Propriété de martingale . . . . . . . . . . . . . . . . . . . . . . . 50 2.1.7 Processus de Markov . . . . . . . . . . . . . . . . . . . . . . . . . 51 2.1.8 Processus de Markov de saut pur . . . . . . . . . . . . . . . . . . 53 2.1.9 L’intégrale stochastique . . . . . . . . . . . . . . . . . . . . . . . 55 2.2 Espace de Fock poissonien . . . . . . . . . . . . . . . . . . . . . . . . . . 59 2.2.1 Opérateur d’annihilation . . . . . . . . . . . . . . . . . . . . . . . 61 2.2.2 Opérateur de création . . . . . . . . . . . . . . . . . . . . . . . . 61 2.3 Probabilité non commutative . . . . . . . . . . . . . . . . . . . . . . 63 2.3.1 Rappels sur analyse fonctionnelle et Espace de Hilbert . . . . . . 63 2.3.2 Semi-groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 2.3.3 Probabilité non commutative . . . . . . . . . . . . . . . . . . . . 77 2.3.4 Espace de Fock complexe . . . . . . . . . . . . . . . . . . . . . . . 80 3 Représentation probabiliste de la solution de l’équation de Schrödinger 83 3.1 Propriétés approfondies de l’opérateur d’impulsion . . . . . . . . . . . . 83 3.1.1 Spectre de l’opérateur p^ . . . . . . . . . . . . . . . . . . . . . . . 84 3.1.2 Action de l’opérateur exp (it^ p) sur des fonctions . . . . . . . . . . 85 3.2 Représentation probabiliste de la solution d’équations integrodi¤érentielles paraboliques classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 86 3.2.1 EDP di¤érentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 3.2.2 EDP intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 3.3 Représentation en p de l’équation de Schrödinger . . . . . . . . . . . . . 93 3.4 Représentation probabiliste de la solution de l’équation de Schrödinger . 98 3.4.1 Traitement de la première fonctionnelle additive . . . . . . . . . . 98 3.4.2 Traitement de la deuxième fonctionnelle additive 99 . . . . . . . . . 3.5 D’autres représentations . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 Bibliographie 102 3 Introduction Le but de ce mémoire de magister est de donner une représentation probabiliste à la solution de l’équation de Schrödinger, voir Blokhintsev [6] page 115 ~2 2m (0; x) = f (x) ; i~@t (t; x) = (t; x) + V (x) (t; x) ; (1) h , m la masse et V est un terme de potentiel ; on prendra plus tard au chapitre 2 III un potentiel périodique car on a en vue de faire de l’homogénéisation périodique, voir où ~ = [25], on prendra V (x) = 0 cos kx où, k 2 R+ . S’il n’y avait pas de complexe i, on aurait une simple équation de di¤usion pour laquelle, pour V (x) 0 et plus le Laplacien, est donnée par la formule de Feynmann-Kac x (t; x) = E f (Bt ) exp( Z t V (Bs )ds); 0 où Bt est un mouvement brownien. Notons qu’on peut aussi donner une représentation analogue si le potentiel est de signe quelconque, mais il y a de gros problèmes mathématiques. Maintenant en présence de i la situation est très di¤érente car on est potentiellement en temps imaginaire. Le concept même de probabilité est absent. C’est grâce aux physiciens de la mécanique quantique qu’un concept de probabilité peut être donné. De nos jours, cette nouvelle probabilité s’appelle probabilité non commutative. Dans notre mémoire, il nous a semblé utile d’exposer d’abord, au chapitre I, quelques notions de mécanique quantique. Ensuite au chapitre II, s’étant acclimaté aux concepts 4 étranges de la mécanique quantique, on expose quelques notions de probabilité non commutative ; en commençant par les probabilités classiques dans lesquelles …gureront le mouvement brownien, le processus de poisson et quelque notions d’intégrale stochastique. Au chapitre III en…n, on donne une représentation probabiliste de la solution en terme de processus de Poisson. Ceci semble très étrange et sera la caractéristique fondamentale des phénomènes quantiques : ils correspondent aux processus de sauts, contrairement aux processus de di¤usions exprimés par des équations de la chaleur sans le complexe i. Cette représentation est encore un tant- soit-peu classique, mais le processus de Poisson n’est pas utilisé de manière classique car on a des mesures complexes sur l’espace des trajectoires. Cette astuce remplace l’utilisation des probabilités classiques au lieu des probabilités non commutatives proprement dites. Dans notre présentation on explicite des manipulations de Konstantinov et Al. [15] et Kolokoltsov [14] laissées pour "faciles" ou bien connues ; pourtant ces vides ne nous sont pas familiers. Nous nous demandons même si les vides que nous avons remplis ne sont-ils pas une redécouverte, au moins partielle, de l’article [18]. Nous remarquerons la chose suivante qui constitue une espèce de dualité entre le processus de Poisson et le mouvement brownien (déjà soulignée en page 64 dans [5]) : dans l’équation de Schrödinger en x on a un laplacien et un potentiel tandis que dans la représentation en p un processus de Poisson fait son entrée avec un générateur créé par le potentiel alors que le laplacien donnera un terme de potentiel ! D’autres articles sur le même sujet sont : [3], [5], [24] et [13]. Le temps nous a manqué dans ce problème ardu pour explorer l’utilisation e¤ective de l’appareil non commutatif, notamment l’utilisation d’un espace de Fock. Nous allons nous contenter de donner un espace de Fock classique associé au processus de Poisson. Ceci nous mènera aux intégrales stochastiques multiples. Nous espérons dans une étude ultérieure établir le lien entre cet espace de Fock et la représentation que nous avons donnée. Cependant, on peut déjà envisager l’homogénéisation de l’équation de Schrödinger comme dans [25] en suivant une méthode probabiliste, mais non commutative, comme dans [2] dans le cas classique. 5 Nous suivrons les ouvrages [1], [4], [9], [10], [16], [20], [23], [27], [28] et [30]. 6 Chapitre 1 Histoire de la mécanique quantique La mécanique quantique est la science la plus mystérieuse. Elle traite du niveau le plus fondamental de la réalité, celui des particules (atomes, électrons, photons, . . . ). La mécanique quantique a fait entrer dans la physique des concepts radicalement nouveaux : dualité onde-corpuscule, superposition d’états, e¤et de l’observateur, probabilités, etc... Par ailleurs, la mécanique quantique est un sujet favori pour ceux qui tiennent des discours irrationnels sur la réalité, qu’ils soient philosophes, gourous du nouvel-age ou même physiciens. Ainsi, la mécanique quantique nous révèlerait une réalité indé…nie, indéterministe, contradictoire et subjective ; il existerait un lien profond entre la conscience et le niveau le plus ultime de la réalité, retour de l’humain au centre de l’univers. Mais pour bien mettre en évidence la relation et le passage de la mécanique classique à la mécanique quantique, étudions d’abord les principaux traits de la mécanique classique. 1.1 Panorama de la mécanique classique Les théories classiques sont un ensemble de lois qui rendent compte des phénomènes macroscopiques (phénomènes mettant en jeu des dimensions et énergie à l’échelle humaine). Le traitement macroscopique de la matière a conduit à la mécanique classique de 7 Newton, et celui du rayonnement, aux équations de Maxwell. Toutefois, ces lois classiques présentent des insu¢ sances pour traiter le comportement microscopique de l’univers : il va falloir traiter la matière et le rayonnement avec des lois di¤érentes. On étudie un corps matériel assimilé à un point matériel de masse m qui évolue dans un champ potentiel V , par exemple un corps en chute libre qui tombe grâce à l’attraction ! ! gravitationnelle de Newton. Celui-ci est soumis à une force f = rV et on obtient une équation di¤érentielle d’ordre deux dont la solution dépend de deux constantes arbitraires qui doivent être …xées par deux conditions initiales : la position et la vitesse. Le mouvement d’une particule de masse m, position x0 et vitesse v0 est complètement déterminé et est décrit à l’aide des lois de Newton à chaque instant t si nous connaissons ! la force totale f agissant sur la particule. En e¤et, en mécanique classique, la position et la vitesse d’une particule sont tous les deux exactement déterminés en tout temps. L’énergie E d’une particule est une fonction continue de la vitesse de cette particule. On en déduit l’équation di¤érentielle suivante : dp = E. dt (1.1) Le progrès suivant est dû à Lagrange qui introduisit l’outil géométrique, de manière systématique, pour la première fois ce qui permet le traitement e¢ cace des liaisons par exemple. On a n coordonnées généralisées q (on dit aussi n degrés de liberté) et le mouvement réel se fait sur une variété M de dimension n. Les vitesses sont alors tangentes à cette variété qui est parametrisée par ces q. Un autre développement est dû à Hamilton, en poussant plus loin encore l’utilisation de l’outil géométrique. Au lieu de l’espace de con…guration de dimension n Hamilton considère une variété de dimension 2n, appelée l’espace des phases, i.e. la variété [x2M T Mx , 8 et on a le système de 2n équations di¤erentielles d’ordre 1 dH dqi = ; dt dpi dpi dH = + Qi , dt dqi où Qi sont les forces généralisées non potentielles. Le dernier point de vue est celui de Jacobi, Liouville etc. , on l’on introduit explicitement un crochet de Lie. En e¤et, on sait qu’une équation di¤erentielle ordinaire (f peut être un champ de vecteurs dé…ni dans un domaine U de Rn ) dX=dt = f (t; X (t)), X (t) 2 Rn , d’ordre n est résolue si l’on connait explicitement n intégrales premières. Une intégrale première est une fonction I d’espace Rn , tq I [X (t)] reste constante au cours du temps. Un célèbre théorème de Jacobi dit que le crochet de Poisson [I1 ; I2 ] = n X i=1 @I1 @I2 @qi @pi @I1 @I2 @pi @qi (1.2) de deux intégrales premières I1 et I2 est encore une intégrale première. En mécanique quantique on cherchera à quanti…er ces formules où le crochet de Poisson-Lie deviendra un commutateur d Xt = i[H; Xt ], dt X0 = X, où Xt = exp (itH) X0 exp ( itH) est un opérarteure auto-adjoint représente un grandeur physique à l’insten t, H est l’hamiltonien, et le commutateur [H; Xt ] = HXt Xt H qui est à comparer avec 1.2. Le trait le plus remarquable entre la mécanique classique et la mécanique quantique est que les grandeurs physiques classiques vont devenir les valeurs propres d’opérateurs autoadjoints sur un espace de Hilbert. La position x correspondra à l’opérateur de mul- 9 tiplication et l’impulsion p correspondra à l’opérateur autoadjoint pb, voir chapitre III 3.1, pb = (1.3) {~r: Le spectre d’un opérateur peut être discret ou continu. L’énergie, par exemple, est associée à un spectre discret alors que la position ou le moment sera continu. Une équation di¤érentielle autonome est dé…nie par dX=dt = f (X). Une solution de cette équation est une application di¤érentiable I est un intervalle de temps). L’image de de phase et le graphe de élargi. Une solution (t0 ) = 0, t.q. d (t)=dt = f ( (t)), 8t 2 I (où s’appelle orbite, ou trajectoire, ou courbe une courbe intégrale. L’espace I véri…e la condition initiale (t0 ; i.e si la courbe intégrale passe par (t0 ; Exemple 1 0) 0 ). U est l’espace des phases de l’espace des phases élargi si Voici quelques exemples. – particule dans le champ de gravitation Nous supposons constant le champ de forces de gravitation au voisinage du sol. Si x est la hauteur, la dynamique (masse unité) est x• = g. Tout mouvement d’une particule est dé…ni par la position et l’impulsion. L’espace de phases sera donc de dimension 2 : (x1 ; x2 ) où x1 = x désigne la position et x2 = x_ l’impulsion. Nous obtenons donc ici x_ 1 = x2 ; x_ 2 = g. – le pendule rigide Il s’agit de décrire le mouvement d’une masse m placée à l’extrémité d’une tige rigide sans masse de longueur l: L’équation dynamique est ici I • = mgl sin où est l’angle de la tige avec la verticale et I = ml2 le moment d’inertie. On obtient • = avec k = g=l. L’espace des phases est k sin de dimension 2, avec les variables x1 = et x2 = _ . Prenant k = 1, on obtient les équations : x_ 1 = x2 ; x_ 2 = – Petites oscillations du pendule rigide 10 sin x1 . On s’intéresse aux petites oscillations de ce pendule. Lorsque est petit, l’approximation de sin par est valable. On obtient alors x_ 1 = x2 ; x_ 2 = x1 . – Petites oscillations du pendule sphérique Ce qui précède correspondait au cas où le mouvement se situait dans un plan. Sinon, l’écart par rapport à la verticale est décrit par deux angles, (l’espace des phases est une sphère si l’on modélise le pendule qui est alors appelé pendule sphérique, et les angles sont la latitude et la longitude par exemple). On aura alors un espace des phases de dimension 4, et les équations de la dynamique suivantes pour les petites oscillations : x_ 1 = x2 ; x_ 2 = 1.2 x1 ; x3 = x4 ; x_ 4 = x3 . Concepts fondamentaux L’e¤et photoélectrique Découvert en 1887 par Hertz (Heinsrich Rudolf), l’e¤et photoélectrique peut être facilement mis en évidence en éclairant une plaque métallique : sous l’action du rayon lumineux, des électrons “sautent” du métal. C’est cet e¤et qui donne aux panneaux solaires leur raison d’être. Cependant, il est véri…é expérimentalement que les électrons ne sont émis que si la fréquence du rayonnement est supérieure à un certain seuil, qui dépend du matériau, alors que leur nombre, qui détermine l’intensité du courant créé, est proportionnel à l’intensité de la source lumineuse. Cet e¤et ne peut être expliqué de manière satisfaisante si l’on considère que la lumière est une onde. Cette idée est solidement ancrée à l’époque et permet d’expliquer nombres de phénomènes où la lumière intervient, tel l’optique. Le problème vient du fait que si l’on considère la lumière comme une onde, en augmentant son intensité, on devrait pouvoir fournir su¢ samment d’énergie au matériau pour libérer un électron, ce qui n’est ici manifestement pas le cas. 11 A. Einstein résoud ce “paradoxe”en faisant l’hypothèse de non divisibilité à l’in…ni de la lumière : il considère la lumière comme une pluie de corpuscule, les photons. Chaque photon possède alors une énergie proportionnelle à la fréquence du rayonnement : E = h (Relation de Planck-Einstein, où h est la constante de Planck. ). Ainsi, augmenter l’intensité du faisceau lumineux n’augmente pas l’énergie des photons mais leur nombre et du coup, la fréquence est le seul critère permettant d’arracher ou non un électron à la plaque. Il est à noter que le premier à avoir mis en évidence la quanti…cation d’une propriété physique est Planck (d’où sa constante) dans une théorie visant à expliquer la nature du rayonnement du corps noir à partir de la notion d’échanges discontinus avec la matière. 1.3 1.3.1 Bref historique De la mécanique classique à la mécanique quantique Au début du 20e siècle, alors qu’il devient possible de faire des expériences à l’échelle microscopique, on découvre que la physique classique ne s’applique pas. En vertu de quoi Planck doit rejeter, en 1900, l’idée que la lumière est un phénomène continu et émet l’hypothèse qu’elle est émise en quanta, ou paquets d’énergie. Cette même discrétisation de l’énergie est nécessaire, comme le découvre Einstein en 1905, pour expliquer l’e¤et photoélectrique. Tout cela mène Einstein à postuler, en 1912, la dualité onde-corpuscule : la lumière serait une onde, mais composée de corpuscules, qu’on nomme photons. Bohr présente par la suite, en 1913, un nouveau modèle de l’atome dans lequel il y a une discontinuité entre les niveaux d’énergie possibles pour les électrons. Ainsi, les électrons dans un atome ne peuvent circuler que sur certaines orbites bien précises autour du noyau. Ils ne peuvent jamais se trouver entre deux orbites permises. Les électrons passent d’une orbite à l’autre par ce que l’on nomme un saut quantique. En 1924, L. De Broglie va plus loin que l’idée de Planck et d’Einstein selon laquelle les ondes lumineuses sont composées de corpuscules. Il propose que la matière elle-même 12 possède une dualité onde-corpuscule (i.e une dualité onde-petite bille dure) : il associe des ondes aux corpuscules de matière. Cette idée sera con…rmée en 1927 par une expérience de di¤raction d’électrons, la di¤raction étant un phénomène ondulatoire qui fut ici observé chez des particules de la matière. Alors qu’en physique classique, la position et la vitesse d’un corps matériel fournissent une description complète de son état (si la masse et la charge électrique sont connues), les découvertes à l’échelle microscopique de la réalité demandent que l’on fasse appel à un nouveau type d’état, le spin. Le spin est une grandeur physique abstraite qui n’a aucun équivalent en physique classique. La seule manière dont on peut le visualiser est en recourant à une représentation selon laquelle le spin est la rotation d’une particule sur elle-même. 1.3.2 La mécanique quantique depuis 1925 La mécanique quantique est un domaine qui regroupe cinq théories et quatre formalismes mathématiques équivalents. Une première théorie quantique véritable est présentée en 1925 par Heisenberg : la mécanique des matrices. L’année suivante, Schrödinger propose une seconde théorie, la mécanique ondulatoire, fondée sur le concept de paquet d’ondes ainsi que sur le calcul di¤érentiel et intégral. Schrödinger montre ensuite l’équivalence entre sa théorie et celle de Heisenberg. En 1927, c’est au tour de Dirac d’entrer en scène avec son formalisme mathématique des vecteurs d’états. Il démontre que son formalisme des vecteurs d’états est non seulement équivalent au formalisme des matrices de Heisenberg et à celui des fonctions d’onde de Schrödinger, mais qu’il est plus général. Ces trois premières théories, que l’on peut désigner collectivement par l’expression « mécanique quantique non relativiste » (car elles ne sont valides que pour des particules se déplaçant à des vitesses très inférieures à celle de la lumière), ou encore « mécanique quantique » tout court, sont di¤érentes, mais équivalentes. Dans un désir de développer une physique uni…ée, on cherche une mécanique quantique qui soit compatible avec les 13 deux théories de la relativité, restreinte et générale. En 1928, Dirac réussit à uni…er sa mécanique des vecteurs d’états avec la relativité restreinte. La mécanique quantique relativiste de Dirac a une application très limitée. Elle a cependant un grand mérite : alors que le spin est une grandeur physique qui doit être incorporée aux trois premières théories par un postulat supplémentaire, il devient une conséquence naturelle de la mécanique quantique relativiste de Dirac. De plus, Dirac prédit en 1930, à partir de sa mécanique quantique relativiste, l’existence de l’antimatière. Les antiparticules seraient des des particules ordinaires d’énergie négative , c’est-à-dire des états inoccupés. Dirac dira même que l’antiélectron, devant avoir une charge positive, et le proton constitue une seule et même particule. En 1931, Dirac modi…e sa prédiction : les antiparticules seraient des particules totalement nouvelles Les antiélectrons seraient des électrons de charge positive, mais non des protons. Cette seconde conception de l’antimatière est celle qui est aujourd’hui en vigueur. La prédiction corrigée de Dirac sera con…rmée expérimentalement par Carl Anderson en 1932 1933 : Anderson découvre, dans le rayonnement cosmique, des traces laissées par des électrons positifs, qu’il nomme positrons. La recherche d’une théorie satisfaisante qui uni…e mécanique quantique et relativité se poursuit. En 1948, une nouvelle théorie voit le jour : la théorie quantique des champs. Elle uni…e mécanique quantique et relativité restreinte et ne sou¤re pas des limites de la mécanique quantique relativiste de Dirac. Elle s’énonce dans un nouveau formalisme mathématique, celui des intégrales de chemin de Feynman. La théorie quantique des champs continue de se développer depuis 1948 et discute aujourd’hui des quatre forces fondamentales qui régissent tous les phénomènes physiques connus, soit la force gravitationnelle, la force électromagnétique et les forces nucléaires faible et forte. Notons que ces deux dernières forces ne se manifestent qu’à l’échelle des noyaux atomiques ; mis à part les phénomènes de la physique nucléaire, tous les phénomènes physiques connus sont régis par les forces gravitationnelle et électromagnétique. Chacune de ces quatre forces est engendrée par son propre champs. Notons qu’à ce jour, seulement trois des quatre champs sont quanti…és 14 par cette théorie, i.e décrits, dans un formalisme mathématique cohérent et concordant avec les faits, comme étant composés de particules. Le seul qui fait exception est le champ gravitationnel : la théorie quantique des champs n’a pas encore réussi à en produire une description quanti…ée cohérente et concordante. La théorie quantique des champs, que l’on désigne aussi par l’expression physique des particules, est la théorie physique la plus générale aujourd’hui. Elle est toujours l’objet de recherches. Les physiciens sont notamment à la recherche de la « théorie du tout » , qui permettrait de véritablement incorporer la gravitation à la théorie quantique des champs. Or, la théorie de la gravitation la plus générale dont disposent les physiciens aujourd’hui est la relativité générale. La « quête du Saint-Graal » de la physique d’aujourd’hui est ainsi de tenter d’uni…er la théorie quantique des champs et la relativité générale en une seule et unique « théorie du tout » .Des solutions potentielles comprennent la théorie des cordes, la théorie des membranes et la théorie de la gravitation quantique. 1.4 Les lois de rayonnement d’un corps noir A la …n du 19e siècle, les physiciens essayaient de comprendre le spectre du rayonnement des corps noirs en se fondant sur la physique classique, la physique statistique et l’électrodynamique classique. Des hypothèses contradictoires (loi de Wien, loi de Rayleigh-Jeans) et une concordance seulement partielle avec les résultats expérimentaux conduisirent à une situation non satisfaisante. C’est Max Planck qui, à la …n du siècle, réussit à trouver une loi de rayonnement complètement en accord avec les mesures expérimentales. Le corps noir est un objet idéal qui absorberait toute l’énergie électromagnétique qu’il recevrait, sans en ré‡échir ni en transmettre. L’objet réel qui se raproche le plus de ce modèle est l’intérieur d’un four. A…n de pouvoir étudier le rayonnement dans cette cavité, une de ses faces est percée d’un petit trou laissant s’échapper une minuscule fraction du 15 rayonnement intene. Chaque paroi du four émet et absorbe du rayonnement. Il y a ainsi échange d’énergie entre les parois, jusqu’à ce que l’objet atteigne l’équilibre thermique. La répartition de la quantité d’énergie émise, en fonction de la longueur d’onde, forme le spectre. Celui-ci est la signature d’un rayonnement purement thermique. Il s’appelle donc spectre du corps noir et ne dépend que de la température du four. 1.4.1 Loi de Wien La loi du rayonnement de Wien caractérise la dépendance du rayonnement du corps noir à la longueur d’onde.Il s’agit d’une formule empirique proposée par Wien, qui rend compte de la loi du déplacement de Wien. Dans sa forme donnée par Wien en 1896, elle s’écrit : = C 1 c , 5 e T avec : Exitance énergétique monochromatique, : longueur d’onde, 10 16 m4 kg s 3 (constante de rayonnement), C 3; 742 c 0; 01439 m k (constante de rayonnement), T : température en kelvins. Cette loi décrit e¤ectivement la présence d’un maximum de rayonnement, mais, contrairement à la loi de Rayleigh-Jeans, elle fournit des valeurs fausses pour les grandes longueurs d’onde. 1.4.2 Loi de Rayleigh-Jeans La loi de Rayleigh-Jeans est une loi proposée au 19e siècle par J. William, S. Rayleigh et J.Jeans a…n d’exprimer la distribution de la luminance spectrale énergétique du rayonnement thermique du corps noir en fonction de la température dans le domaine des 16 grandes longueurs d’ondes. Considérons le cas d’une cavité cubique de côté L et de volumeV , dont les parois sont parfaitement ré‡échissantes. A l’équilibre, ne peuvent y apparaître que des ondes stationnaires. Ces ondes peuvent être dirigées suivant n’importe quelle direction, mais doivent satisfaire à une même condition : un nombre entier de demies-longueurs d’onde doit passer entre deux surfaces parallèles de la cavité. Il ne peut donc y avoir que certains états vibratoires discrets. Le rayonnement total à l’intérieur de la cavité provient de ces 8 V di¤érentes ondes stationnaires. Il y a 3 2 d états vibratoires possibles dans l’intervalle C de fréquences entre et + d . (le nombre d’états vibratoires possibles augmente avec la fréquences). La densité d’états, c’est-à-dire le nombre d’états vibratoires possibles dans l’intervalle de fréquences entre et + d et par unité de volume, vaut : n( )d = 8 C3 2 d . En considérant ces états vibratoires comme des oscillateurs harmoniques de fréquence , on devrait s’attendre d’après le théorème d’équipartition de l’énergie à ce que, à l’équilibre thermique du milieu à la température T , chaque oscillateur porte l’énergie cinétique KT =2 et l’énergie potentielle KT =2, soit une énergie totale de KT . La densité d’énergie dans la cavité dans l’intervalle de fréquence entre E ( )d = 8 KT C3 2 et + d serait alors : d : Ceci est la loi de rayonnement de Rayleigh-Jeans. Cette loi, qui suggérait une croissance sans limite de la luminance dans le domaine des faibles longueurs d’ondes, n’était pas véri…ée par l’expérience dans l’ultra-violet ; c’est ce qu’on appelle la catastrophe ultraviolette. C’est ce qui conduisit Max Planck à proposer une loi valable sur la totalité du spectre : la loi de Planck. Ainsi, la loi de Rayleigh-Jeans est une approximation de la loi hc de Planck, utilisable lorsque , avec h = 6; 62617 10 34 J s. KT 17 1.4.3 Loi de Max Planck La loi de Planck décrit la répartition de l’énergie électromagnétique (ou la répartition de la densité de photons) rayonnée par un corps noir à une température donnée, en fonction de la longueur d’onde. Rayonnement complètement en accord avec les mesures expérimentales. Outre l’importance pratique du corps noir, la découverte de la loi de Planck en 1900 signe la naissance de la mécanique quantique : pour expliquer sa loi trouvée de manière empirique, Planck a dû supposer que la lumière (et donc le rayonnement électromagnétique en général) n’était pas absorbée et émise de manière continue, mais uniquement de manière discrète. La luminance énergétique monochromatique d’un corps noir à la température absolue T vaut Selon la fréquence : L = 2h 3 c2 e(h 1 =KT ) 1 . Selon la longueur d’onde : L = 2hc2 5 1 ehc= KT 1 . Où c la vitesse de la lumière dans le vide et K est la constante de Boltzmann. Pour comparaison des di¤érentes lois de rayonnement (Rayleigh-Jeans, Wien et Planck), lorcque les lois de Planck et de Rayleigh-Jeans s’accordent bien aux plus basses fréquences et les lois de Planck et de Wien s’accordent bien aux plus hautes fréquences. Avant de continuer vers un traitement plus rigoureux, il nous a semblé bon de montrer la hiérarchie et considerer l’atome lui même. 1.5 Les principaux modèles atomiques Comme il est impossible de photographier un atome ou une molécule, il faut représenter la réalité par un modèle plus ou moins précis. Le but du modèle, c’est expliquer 18 aussi simplement que possible un phénomène très complexe : Le modèle de Dalton (1798) Sphère compacte. Tous les atomes d’un même élément sont identiques ; chaque élément possède sa propre sorte d’atome. Le modèle de Thompson (1897) Il découvre que l’atome contient des particules plus petites, chargées négativement. Ces particules ont été appelées électrons. Dans le modèle de Thompson, les électrons n’ont pas de position ni de trajectoire dé…nies : ils baignent dans une "soupe" chargée positivement. Le modèle de Rutherford (1911) L’atome est constitué d’un noyau central très petit (un dix millième du diamètre atomique) qui comprend la quasi-totalité de la masse de l’atome. Ce noyau, porteur d’une charge électrique positive, est entouré d’une enveloppe négative formée d’électrons. Le modèle de Bohr (1913) Les électrons négatifs formant l’enveloppe sont répartis en couches concentriques plus ou moins éloignées du noyau positif. Le modèle de Lewis (1913) Lewis proposa l’hypothèse suivante : les électrons de la couche externe son responsables des liaisons entre atomes, la liaison étant assurée par des paires d’électrons résultant de la mise en commun d’électrons appartenant aux atomes liés. C’est une simpli…cation du modèle de Bohr. 19 Le modèle de Kimball (1959) L’atome est constitué d’un coeur positif comprenant le noyau atomique et les couches électroniques internes. Autour du coeur, on trouve des lieux géométriques contenant 1 ou 2 électrons. Ces lieux sont appelés des orbitales. Les orbitales étant des zones de l’espace chargées négativement, elles se repoussent mutuellement. Le modèle de Kimball peut être considéré comme une représentation spatiale de celui de Lewis. 1.6 Probabilité, Fonction d’onde, Equation de Schrödinger 1.6.1 Description probabiliste et densité de probabilité En fait, toute la physique est une description probabiliste : un résultat de mesure est donné par un nombre et son incertitude, et on peut même dire que l’on peut souvent donner une loi de probabilité de trouver telle valeur de la mesure (on fait plusieurs fois la même expérience et on dresse un histogramme). On prendra l’exemple de la mesure de position d’une particule. En général, on envoie la particule sur un détecteur (par exemple si c’est un photon, une plaque photo), et on répète plein de fois l’expérience. La densité d’impacts sur la plaque photo est proportionnelle à la densité de probabilité p(x) de trouver le photon au point x. Pour …xer les idées, on rappelle la dé…nition de p(x). La probabilité P (dx) de trouver la particule dans un petit volume dx est P (dx) = p(x)dx. Cela n’est pas limité à la mesure de la position, mais peut-être étendu à la mesure de toute variable continue, par exemple la vitesse (P (dv) = p(v)dv), ou une seule coordonnée x (P (dx) = p(x)dx). On peut aussi avoir des probabilités discrètes (le résultat de mesure est une parmi N possibilités). Si la mécanique classique était vraie, on pourrait écrire alors l’évolution de ces densités de probabilités au cours du temps (en supposant qu’on les connaît au temps t = 0 et en résolvant les équations de Newton voir 1.1). Il se trouve que cette méthode 20 ne donne pas les bons résultats dès qu’on arrive dans le domaine microscopique. 1.6.2 Fonction d’onde Après quelques tâtonnements, les physiciens sont arrivés à la conclusion que pour bien décrire la physique d’une particule, il fallait introduire une nouvelle fonction, appelée fonction d’onde, notée en général (x) dont les valeurs sont complexes, elle contient toute l’information du système et qui a la propriété que j (x) j2 = p(x) est une densité de probabilité. En clair, on complète la description par p(x) en ajoutant une phase p p(x) exp (i' (x)). 1.6.3 (x) = Equation de Schrödinger Equation de Schrödinger dépendant du temps Cette équation décrit comment la fonction d’onde se transforme au cours du temps. Pour l’instant elle va nous paraître compliquée, mais sa forme se rationalisera plus bas à propos de l’hamiltonien. On a donc une fonction On dé…nit donc une fonction (x) pour chaque valeur du temps t. (t; x). Toute particule, ou plus généralement tout système quantique, est complètement dé…ni à l’instant t par une fonction d’onde, appartenant à l’espace L2 des fonctions de carré sommable muni du produit scalaire h j i= Z (t; x) (t; x) dx. (1.4) Attention, cette fonction n’est en aucun cas reliée à une densité de probabilité de mesure (t; x) j2 dt (noter l’élément di¤érentiel dt) d’un temps ou quelque chose comme ça j n’a aucune signi…cation physique ! t est ici un paramètre et non un résultat de mesure. L’équation est écrite dans 1. Discussion D’où vient l’équation de Schrödinger ? Cette équation est postulée (tout commme d’ailleurs l’équation de Newton). Sa validité est prouvée par les conséquences que l’on 21 peut en tirer. L’équation de Schrödinger est une équation du premier ordre par rapport au temps. La connaissance de (t = 0; x) su¢ t pour déterminer l’évolution de (t; x). On peut faire une constatation très importante en regardant l’équation de Schrödinger, c’est qu’elle est linéaire., i.e. si 3 1 et (t; x) = 2 en sont des solutions, alors 8 ; 1 (t; x) + 2 2C (t; x) , est aussi solution de l’équation de Schrödinger. Cela est connu en physique sous le nom de Principe de superposition. Cette constatation anodine est à la base de méthodes puissantes de résolution de l’équation. Ceci permet d’essayer d’écrire la solution générale sous la forme d’une combinaison linéaire de solutions ayant certaines propriétés qui simpli…ent l’équation. On applique la méthode de la séparation des variables. En particulier, on peut éliminer le temps de l’équation, et obtenir l’équation stationnaire de Schrödinger indépendante du temps. Equation de Schrödinger stationnaire On suppose (comme c’est souvent le cas) que l’énergie potentielle est indépendante du temps. On a donc, en cherchant les solutions sous la forme injectant dans l’équation 1 et en divisant par i f (t) 1 = f (t) ~ 2m (t; x) = f (t) (x), en on trouve : + V (x) : (1.5) Comme le membre de gauche ne dépend que du temps et que celui de droite ne dépend que de la position, ces deux membres sont nécessairement constants, ce qui donne deux équations di¤érentielles ordinaires i ~ 2m f (t) = c, f (t) +V 22 = c: On doit appliquer une condition qui vient de la physique. Nécessairement, tant que la particule existe, on doit pouvoir la trouver quelque part dans l’espace, ce qui fait que l’on a, quelque soit t : Z dx j 2 2 (t; x) j =j f (t) j Z j (x) j2 dx = 1; ce qui impose que j f (t) j = constante . On peut choisir cette constante égale à 1 (en la faisant rentrer dans, et donc f (t) = exp (i' (t)). En reportant dans l’équation précédente, on doit donc avoir ' = constante. On note cette constante exp ( i$t) où $ 2 $, ce qui fait que f (t) = est la fréquence, et on trouve : $ = ~ 2m + V (x) . D’après la relation de Planck E = ~ 2$ , on voit que le membre de gauche de cette équation fait intervenir l’énergie de la particule, et l’on obtient …nalement l’équation de Schrödinger indépendante du temps : h 2m + V (x) (1.6) =E : Il se trouve que, dans beaucoup de cas, cette équation n’a de solution physiquement acceptable que pour un ensemble discret de valeurs de E. Toutes les valeurs de E ne sont donc pas nécessairement autorisées : c’est la quanti…cation de l’énergie. 1.7 Notations de Dirac L’état d’une particule est dé…ni par la donnée de sa fonction d’onde (x) ou 2 L2 Ket : On dé…nit, par isomorphisme, l’espace vectoriel des états E tel qu’à toute fonction 2 L2 correspond un vecteur j i 2 E, on appelle ce vecteur ket. Les combinaisons linéaires de kets sont aussi des kets. On note : 23 j 1 1i + 2 j 2i =j 1 1 + 2 i, 2 la combinaison linéaire de deux kets. Bra : Un bra est une fonction linéaire de l’espace E à valeurs dans C, ce qu’on appelle aussi une forme linéaire. On la note h j. Pour l’instant l’image d’un ket j i par le bra h j est notée h j (j i) . La linéarité signi…e que : h j( 1 j 1i + 2 j 2 i) 1h = j (j 1 i) + 2h j (j On peut bien sûr faire des combinaisons linéaires de bras de type 2 i). 1h 1 j + 2h 2 j, mais il n’y a pas de notation spéciale. Ces combinaisons linéaires sont comme d’habitude dé…nies par : ( pour tout ket j 1h 1 j+ 2h 2 j) ( ) = 1h 1 j( )+ 2h 2 j ( ), i. L’ensemble des formes linéaires (des bras) sur l’espace E est appelé l’espace dual de E et est noté E . Quand E est de dimension …nie, E est de même dimension, et on peut donc trouver un isomorphisme entre ces deux espaces. Ce n’est pas nécessairement le cas en dimension in…nie et ona besoin de la continuité pour cet isomorphisme. Produit scalaire, norme Le produit scalaire (hermitien) de 2 kets j i et j 'i est noté : h j 'i. Il est hermitien, linéaire sur le deuxième vecteur et antilinéaire sur le premier, et dé…ni positif h j 'i = h' j i, h j 1 '1 + 2 '2 i = 1h 24 j '1 i + 2h j '2 i, h 1 1 + 2 2 j 'i = 1h h j i 1 j 'i + 2h 2 j 'i, 0, h j i = 0 ,j i. On dé…nit la norme de j i comme k 1.8 k= p h j i. Ondes de De Broglie et dualité onde-corpuscule L’idée est le concrétiser l’onde de Schrödinger par une sorte d’onde pilote. En physique, la dualité onde-corpuscule ou dualité onde-particule est un principe selon lequel tous les objets de l’univers microscopique présentent simultanément des propriétés d’ondes et de particules, (tout comme les photons de la lumière ont les deux comportements ondulatoire et corpusculaire). Cette dualité tente de rendre compte de l’inadéquation des concepts conventionnels de « particules » ou d’« ondes » , pris isolément, à décrire le comportement des objets quantiques. L’idée de la dualité prend ses racines dans un débat remontant aussi loin que le 17e siècle, quand s’a¤rontaient les théories concurrentes de Christiann Huygens qui considérait que la lumière était composée d’ondes et celle de Isaac Newton qui considérait la lumière comme un ‡ot de particules. La suite des travaux à A. Einstein, L. De Broglie et bien d’autres, les théories scienti…ques modernes accordent à tous les objets une nature d’onde et de particule, bien que ce phénomène ne soit perceptible qu’à des échelles microscopiques. Onde ou particule, c’est l’absence de représentation plus adéquate de la réalité des phénomènes qui nous oblige à adopter, selon le cas, un des deux modèles alors qu’ils 25 semblent antinomiques En 1925 De Broglie postula son principe de la dualité onde-copuscule qui a¢ rme que toute matière (et pas seulement la lumière) a une nature ondulatoire. Il associa la quantité de mouvement p d’une particule à une longueur d’onde appelée longueur h d’onde de De Broglie = , où p peut être dé…nit comme le produit de la masse par la p h . vitesse p = , donc la longueure d’onde est = Exemple : Quelle est la longueur d’onde d’un électron qui se déplace à une vitesse de 100 m s ? 6; 626 10 34 = 7:27 [ m]. 9:109 10 31 :100 Il est très di¢ cile d’imaginer un objet qui soit à la fois une onde et un corpuscule, tel Réponse : Selon l’équation ci-dessus, = h = que nous dé…nissons ces deux entités en physique classique, à cause de leurs propriétés opposées : Une particule peut être localisée précisément (je vois cette bille, elle est ici) alors qu’une onde est délocalisée (un son peut être entendu dans toute la pièce). Il n’est possible ni de créer ni de détruire une particule en mécanique classique !( cette assertation est justement fausse en mécanique quantique) alors qu’il sufet de pincer une corde de guitare pour créer une onde. Les particules sont clairement dissociées : si un atome est à un endroit, aucun autre atome ne pourra y être au même moment. Deux ondes sont au contraire superposables : les interférences. Mais plus généralement, comment imaginer un système S qui se manifeste parfois comme A, parfois comme B alors que A et B sont deux choses di¤érentes ? On peut voir S comme n’étant ni A ni B mais comme quelque chose de plus général, que l’on ne peut (sait ?) toutefois visualiser dans sa totalité. Pour donner un exemple, on pourrait s’imaginer vivre dans un monde bidimensionnel et essayer de décrire un cylindre : suivant une certaine projection, c’est un cercle, suivant une autre, c’est un rectangle, alors qu’un cylindre n’est ni l’un ni l’autre ! 26 1.9 Le principe d’incertitude de Heisenberg Le principe d’incertitude de Heisenberg a¢ rme que, pour une particule massive donnée, on ne peut pas connaître simultanément sa position et sa vitesse (ou sa quantité de mouvement). Soit on peut connaître précisément sa position, mais avec une grande incertitude sur sa vitesse, soit on peut connaître précisément sa vitesse, amis avec une grande incertitude sur sa position. Ce principe est assez contre-intuitif du point de vue de la mécanique classique. Il faut souligner que ce principe ne porte pas sur l’imprécision de mesure, mais bien sur l’impossibilité intrinsèque de déterminer à la fois la position et la vitesse, quelle que soit la précision de la mesure. A ce propos, il est très instructif de lire dans [12] le dialogue qui s’est tenue entre une étudiante de philosophie Kantienne et Heisenberg lui même. En notant l’indétermination sur la position x par quantité de mouvement p par x et l’indétermination sur la p, on a la formule suivante : x p ~ . 2 Exemple : Quelle est l’incertitude sur la quantité de mouvement d’une particule dont la position peut être déterminée avec une précision in…nie ? Réponse : Par la formule précédente, comme 1.10 x = 0 alors p = 1. Les axiomes de base de la mécanique quantique La mécanique quantique est basée sur quelques axiomes trouvés grâce à l’ingéniosité des savants. Un axiome est un postulat qui constitue une théorie, mais qui ne découle d’aucune formule précédente et qui ne peut être prouvé formellement. 27 Premier axiome : fonctions d’onde et distributions de probabilité En mécanique quantique, à cause de ses propriétés ondulatoires, une particule ne peut pas être située de façon exacte à un moment donné. On peut par contre donner la probabilité que la particule se trouve à un endroit, ce qui est surtout important de retenir ici, c’est qu’en mécanique classique une particule peut être dé…nie par sa position et sa vitesse exacte à un moment donné, alors que pour une particule quantique on ne peut que donner des distributions probabilités. Mathématiquement, on exprime cela ainsi : P (x; dV ) =j (x) j2 dV = (x) (x) dV , où P (x; dV ) est la probabilité d’être dans le volume dV à la position x et fonction d’onde. k (x) est la (x) k2 s’appelle la densité de probalité (parfois simplement probabi- lité). Une fonction d’onde d’un système est, en mécanique quantique, une représentation de l’état quantique du système, i.e. de tous les aspects qui décrivent ce système. Pour un électron, le carré de la fonction d’onde est appelé densité électronique. Elle correspond au nombre d’électrons par unité de volume et est notée P (x) avec P (x) =j (x) j2 . Si V représente tout le volume dans lequel la particule peut évoluer, alors la probabilité que la particule soit dans V est 1 : Z 2 (x)dV = 1. Exemple : une particule quantique est con…née dans une boîte a un dimension linéaire de longueur L entourée par des murs de potentiel in…n. L’état fondamental de ce système est décrit par la fonction d’onde suivante : 2 2 ~ En = 2m n2 L2 , n (x) 28 = r 2 x sin(n ). L L Quelle est la (densité de) probabilité de trouver la particule à une position x donnée ? A quelle position se trouve la probabilité maximale (quelle est l’espérance) ? Quelle est la probabilité totale de trouver la particule dans la boîte ? 2 L Réponse : j (x) j2 = sin2 ( Lx ). La probabilité est maximale lorsque x = . La L 2 probabilité totale vaut 1. Deuxieme axiome : observables et opérateurs Les propriétés d’un système quantique sont décrites par di¤érentes informations physiques que l’on obtient par des mesures. On les appelle des observables, notées A. Pour décrire ces observables, on utilise des outils mathématiques appelés opérateurs, on note A^ = OA l’opérateur servant à décrire l’observable A. Ces opérateurs sont des sorte de fonctions agissant sur la fonction d’onde du système. OA = A . Voici un récapitulatif de la correspondance entre les concepts classiques et quantiques Observable Formule classique Opérateur quantique Position Quantité de mouvement x ! p = m! ! p^ = x^ ! {~ r P2 m 2 ~2 2 = r Energie cinétique Ec = E^c = 2 2m 2m On remarque que l’opérateur de l’énergie cinétique se déduit de la formule classique de l’énergie cinétique et de l’opérateur de la quantité de mouvement. Exemple quelle est la quantité de mouvement d’une particule libre qui est décrite par la fonction suivante : Réponse : (x) = exp ( ikx) ? d = ~k . ~k car P^ = ~ dx Troisieme axiome : espérances et incertitudes En physique quantique, au lieu de donner la position d’une particule par une seule valeur précise, on donne une distribution de probabilité de la position. La valeur la plus 29 probable d’une distribution de probabilité est la moyenne de la distribution, ce que nous appelons l’espérance. Par exemple, l’espérance de la position d’une particule, notée hxi est : hxi = Z x j j2 (x)dV = V X xi P (x = xi ), i on a fait une approximation où l’on rend discret l’espace continu en le divisant en une multitude de petits cubes in…nitésimaux. P (xi ) représente la probabilité d’être dans le petit cube indicé i, tout comme 2 (x)dV représente la probabilité d’être dans le volume dV dans le cas continu. Nous prenons toutes les valeurs possibles de x nous en faisans une moyenne pondérée par la probabilité de chacune de ces valeurs, qui nous est donnée par le carré de la fonction d’onde. De la même manière que pour la position d’une particule, on peut calculer une propriété A d’un système quantique comme l’espérance de la distribution de probabilité donnée par le carré de la fonction d’onde : hAi = Z OA dV . V Si l’on prend de nombreuses mesures de la propriété A, la largeur de la distribution de probabilité qui en résulte détermine si les valeurs que l’on a obtenus sont proches ou alors s’écartent beaucoup de l’espérance de A. Cette incertitude déviation standard de la distribution de probabilité v u N uX A=t P (A i i i=1 30 hAi i)2 = N X i=1 Pi . A est donnée par la Quatrième axiome, l’hamiltonien et l’équation de Schrödinger Nous avons déjà remarqué que la fonction d’onde d’un système est donnée par l’équation de Schrödinger 1 qui est une EDP complexe. Cette équation admet aussi l’écriture opératorielle : b (t; x), i~@t (t; x) = H (1.7) b est l’hamiltonien qui est un opérateur bien connu en mathématique. C’est l’opéraoù H teur quantique pour l’énergie totale du système : b= E bc + Vb = H ~2 2m où Vb est l’opérateur de multiplication par V , i.e. Vb + Vb , (x) = V (x) (1.8) (x). Cet opérateur est donné ici dans la représentation en x. Pour des états stationnaires, i.e. indépendants du temps, l’équation de Schrödinger se simpli…e en l’équation de Schrödinger indépendante du temps : ^ (x) , E (x) = H où E est l’énergie totale du système. La résolution d’une telle équation est en général très complexe. La plus faible de ces valeurs propres (En ) est l’énergie de l’état fondamental du système. 1.11 Résumé des relations entre mécanique classique et mécanique quantique Le changement radical entre la mécanique quantique et la mécanique classique est essentiellement qu’en mécanique classique une particule est un objet ponctuel décrit par 31 un point (x; p) dans l’espace des phases, alors que en mécanique quantique, une particule est un objet étendu, décrit par une fonction d’onde (t; x). Une conséquence est la possibilité d’interférences. Le rôle de la mécanique est de donner les lois qui gouvernent l’évolution de ces objets. Ce sont les équations de Hamilton (ou Newton) dans le cas classique et de Schrödinger dans le cas quantique. La théorie quantique est valable pour des constituants élémentaires ou pour une assemblée de quelques constituants (atomes molécules) tant qu’il sont parfaitement isolés de leur environnement. Ici le mot isolé signi…e précisément que le système étudié ne modi…e pas son environnement au sens où il ne change pas l’état quantique de l’environnement de façon signicative. On ne peux pas parler de la fonction d’onde d’une balle ou même d’une poussière qui sont des objets non isolés. En principe une théorie complète devrait pouvoir décrire toutes les échelles de la nature. A l’heure actuelle on ne sait pas rendre compatible de façon totalement satisfaisante la théorie quantique avec l’aspect classique de la nature à l’échelle macroscopique. Cela est discuté depuis longtemps. Si le système étudié n’est pas isolé et in‡uence un système extérieur, il est nécessaire d’inclure ce système extérieur dans la description quantique. Sinon, on peut se contenter d’une description classique du système extérieur. Le tableau suivant résume les principales di¤érences entre la mécanique classique et la mécanique quantique. Classique Quantique ~ 2 (t; x), p (t; x) 4x4p Position et quantité de mouvement sont toujours exactement déterminés Spectres d’énergie continus Energie quanti…ée Ec (T = 0) = 0 Ec (T = 0) > 0 Lois de Newton d2 x f = ma = m 2 dt Equation de Schrödinge H 32 (t; x) = i~@t (t; x) 1.12 Les grands hommes de la mécanique quantique Pour …nir, on rend hommage aux savants qui ont contribué à la mécanique quantique. Albert Einstein Albert Einstein (né le 14 mars 1879 à Ulm, Wurtemberg, et mort le 18 avril 1955 à Princeton, New Jersey) est un physicien théoricien qui fut successivement allemand, puis apatride (1896), suisse (1901), et en…n sous la double nationalité helvético-américaine (1940). Il publie sa théorie de la relativité restreinte en 1905, et une théorie de la gravitation dite relativité générale en 1915.Il contribue largement au développement de la mécanique quantique et de la cosmologie, et reçoit le prix Nobel de physique de 1921 pour son explication de l’e¤et photoélectrique. Son travail est notamment connu pour l’équation E = mc2 , qui établit une équivalence entre la matière et l’énergie d’un système. Werner Heisenberg Werner Karl Heisenberg (5 décembre 1901 à Wurtzbourg, Allemagne - 1er février 1976 à Munich) était un physicien allemand. Il fut l’un des fondateurs de la mécanique quantique. Il est lauréat du prix Nobel de physique de 1932 «pour la création de la mécanique quantique, dont l’application a mené, entre autres, à la découverte des variétés allotropiques de l’hydrogène » . Max Planck Max Planck (né Max Karl Ernst Ludwig Planck le 23 avril 1858 à Kiel, Allemagne - mort le 4 octobre 1947 à Gttingen, Allemagne) est un physicien allemand. Il est lauréat du prix Nobel de physique de 1918 pour ses travaux en théorie des quanta. Il a reçu la médaille Lorentz en 1927 et le prix Goethe en 1945. C’est l’un des fondateurs de la mécanique quantique. Niels Bohr Niels Henrik David Bohr (7 octobre 1885 à Copenhague, Danemark - 18 novembre 1962 à Copenhague) est un physicien danois. Il est surtout connu pour son apport à l’édi…cation de la mécanique quantique, pour lequel il a reçu de nombreux honneurs. Il est notamment lauréat du prix Nobel de physique de 1922. 33 Max Born Max Born (11 décembre 1882 à Breslau, Empire allemand - 5 janvier 1970) est un physicien allemand, puis britannique. Il est lauréat de la moitié du prix Nobel de physique de 1954 pour ses travaux sur la théorie des quanta. Erwin Schrödinger Erwin Rudolf Josef Alexander Schrödinger (12 août 1887 à Vienne –4 janvier 1961) est un physicien et théoricien scienti…que autrichien. En imaginant l’équation d’évolution de la fonction d’onde associée à l’état d’une particule, il a permis le développement du formalisme théorique de la mécanique quantique. Cette équation d’onde qui tient compte à la fois de la quanti…cation et de l’énergie non relativiste a été appelée par la suite équation de Schrödinger (pour laquelle il a reçu, en commun avec Paul Dirac, le prix Nobel de physique de 1933). Il est également connu pour avoir soumis l’étonnante expérience de pensée, nommée plus tard du Chat de Schrödinger, à la suite d’une importante correspondance avec Albert Einstein en 1935. John von Neumann John von Neumann, né János Neumann, à Budapest, en Autriche-Hongrie le 28 décembre 1903 et mort à Washington, D.C. le 8 février 1957, est un mathématicien et physicien américano-hongrois. Il a apporté d’importantes contributions tant en mécanique quantique, qu’en analyse fonctionnelle, en théorie des ensembles, en informatique, en sciences économiques ainsi que dans beaucoup d’autres domaines des mathématiques et de la physique. Il a de plus participé aux programmes militaires américains. Richard Feynman Richard Phillips Feynman (11 mai 1918 – 15 février 1988) est l’un des physiciens les plus in‡uents de la seconde moitié du 20e siècle, en raison notamment de ses travaux sur l’électrodynamique quantique relativiste, les quarks et l’hélium super‡uide. Il reformula entièrement la mécanique quantique à l’aide de son intégrale de chemin qui généralise le principe de moindre action de la mécanique classique et inventa les 34 diagrammes qui portent son nom et qui sont désormais largement utilisés en théorie quantique des champs (dont l’électrodynamique quantique fait partie), et lui sont colauréats du prix Nobel de physique de 1965 pour leurs travaux en électrodynamique quantique. Louis De Broglie Louis Victor De Broglie, prince, puis duc De Broglie (15 août 1892 à Dieppe, France - 19 mars 1987 à Louveciennes, France) est un mathématicien et physicien français. À seulement 37 ans, il devient lauréat du prix Nobel de physique de 1929 « pour sa découverte de la nature ondulatoire des électrons » . Paul Dirac Paul Adrien Maurice Dirac (8 août 1902 à Bristol, Angleterre - 20 octobre 1984 à Tallahassee, Floride, Etats-Unis) est un physicien et mathématicien britannique. Il est l’un des « pères » de la mécanique quantique et a prévu l’existence de l’antimatière. Il est colauréat avec Erwin Schrödinger du prix Nobel de physique de 1933 « pour la découverte de formes nouvelles et utiles de la théorie atomique » . 35 Chapitre 2 Probabilité non commutative Pour bien saisir ce concept, il faut passer en revue le cas classique. 2.1 Probabilité classique Il est instructif de noter que l’exposition rigoureuse de la notion de probabilités n’a vu le jour que vers 1930 avec Kolmogorov, alors que la relativité restreinte et générale ont étés découvertes au plus tard en 1916 et la mécanique quantique vers 1925. Du point de vue intuitif, on utilise l’outil probabiliste et ceci de manière très correcte depuis très longtemps. Le langage de la théorie des probabilités classiques est celui de la théorie de la mesure et intégration. Notons au passage qu’il est tout à fait possible que ces probabilités classiques puissent avoir un autre langage que celui de la mesure. Une théorie satisfaisante n’a été mise au point que vers la …n du 19e siècle avec H. Lebesgue ; celuici devait en e¤et attendre l’expression correcte du concept de borne supérieure. Etant donné une expérience aléatoire, on lui associe l’ensemble de toutes les possibilités, ou espace échantillon, ou univers ou en…n espace fondamental, noté . Un événement sera alors associé à un sous-ensemble de . (il y a des problèmes mathématiques complexes qui font que si est non dénombrable (i.e. il n’existe aucune bijection entre tout sous ensemble de et N ), alors ne sera pas automatiquement un événement). Cette association 36 est en fait bien connue en Logique Mathématique et Théorie des ensembles initiée par G. Boole au 19e siècle. 2.1.1 Espace fondamental On considère un ensemble abstrait quelconque , qui modélise le caractère aléatoire d’un certain phénomène et portera dans la suite le nom d’ensemble fondamental, ou d’espace des chances. On note P ( ) l’ensemble des parties de . Rappelons que si Card = n, alors Card P ( ) = 2n . Dé…nition 2.1.1 Une tribu ou -algèbre F sur nant est un sous-ensemble de P ( ) conte- et véri…ant les propriétés suivantes : 1) 8A 2 F ) Ac 2 F(stabilité par passage au complémentaire), 2) 8Ai 2 F ) \ Ai 2 F(stabilité par intersection dénombrable). i2N Il faut comprendre une tribu comme la quantité d’information associée à une certaine expérience aléatoire. Remarquons qu’une tribu contient forcément ;, et reste stable par réunion dénombrable. Les éléments de sont appelés événements élémentaires et les éléments de F événements. Quand F est une tribu sur , on dit que ( ; F) est un espace mesurable. Un sous-ensemble S F, tel que S soit aussi une -algèbre est appelé sous- -algèbre de F. Soit E un espace topologique, on appelle -algèbre de Borel de E notée B (E), la -algèbre engendrée par les ouverts de E, i.e. la plus petite -algèbre contenant les ouverts de E. Dé…nition 2.1.2 Soit ( ; F) un espace mesurable. Une probabilité sur ( ; F) (ou une mesure de probabilité) est une application P de F dans [0; 1] telle que 1) P ( ) = 1, P 2) Si A1 An ; sont des parties de F deux à deux disjointes, alors P P (An ). n2N 37 [ An n2N = La deuxième propriété porte le nom de -additivité. On utilise souvent l’écriture avec R R les fonctions indicatrices : P (A) = A dP = 1A dP . Si P (A) = 1, on dit que A est presque certain ( est alors l’événement certain). Un ensemble A 2 F est dit négligeable pour P si P (A) = 0, par exemple les singletons fxg sont négligeables dans [0; 1] pour la mesure de Lebesgue (on dit alors que cette dernière ne charge pas les points). L’ensemble est parfois appelé espace des échantillons ou univers. Le triplet ( ; F; P ) est appelé espace de probabilité qu’on …xera pour toute la suite. Les événements A et B sont indépendants si et seulement si P (A \ B) = P (A)P (B), ce qui s’écrit encore, dès que P (B) > 0, P (AjB) = P (A). Si la suite (An )n2N est croissante, i.e. An P [ An n2N An+1 , alors = lim P (An ) . n !1 Si la suite (An )n2N est décroissante, i.e. An+1 P \ An n2N An , alors = lim P (An ) . n !1 Dé…nition 2.1.3 Soient ( ; F), (E; ) deux espaces mesurables et X une fonction de dans E. On dit que X est une variable aléatoire (v. a.) sur sur ( ; F)) lorsque pour tout A 2 B (E) on a X 1 (ou plus précisément (A) 2 F. Autrement dit, les images réciproques des boréliens doivent être des évènements de F. Les v.a. sont aussi appelées (dans un autre contexte) fonctions F-mesurables. Lorsque F = P ( ) toute fonction X : ! E est une v. a. . L’exemple fondamental de variable aléatoire est la8fonction indicatrice d’un ensemble A 2 F : < 1 si ! 2 A, 1A : ! 7 ! : 0 sinon. 38 Dé…nition 2.1.4 La tribu engendrée par une v. a. X dé…nie sur ( ; F) est l’ensemble (X) = fX 1 (A) ; A 2 B (E)g. Dé…nition 2.1.5 Soit X une v.a., la loi de X est la probabilité PX sur (E; B (E)) dé…nie comme mesure-image de P par X : pour tout A 2 B (E) PX (A) = P (X 2 A) = P (f! : X (!) 2 Ag) . On appelle la fonction de répartition de X les quantités FX (x) = P (X x). La fonction FX est continue à droite et limitée à gauche (càdlàg), croissante, tend vers 0 en 1 et vers 1 en +1. Soit fX une fonction positive, La densité fX d’une variable aléatoire X est la dérivée de la fonction de répartition FX quand cette dérivée existe. On peut alors écrire P (X 2 A) R = A fX dx. 2.1.2 Indépendance, espérance conditionnelle Dé…nition 2.1.6 Soit X une v.a. tq l’espérance de X par E (X) = R Z jX (!)j dP = X (!) dP = Z R R jxj dPX < +1. On dé…nit alors xdPX . R Intuitivement, c’est le centre de gravité de la loi PX . Le deuxième moment représente le moment d’inertie par rapport à un axe qui passe par l’espérance. Il existe des variables aléatoires qui n’ont pas d’espérance, i.e. pour lesquelles l’intéR grale X (!) dP n’a pas de sens. Par exemple la variable ayant pour densité fX (x) = 0 si jxj < 1 et fX (x) = 1= (2x2 ) si jxj Z R 1 véri…e jxj dPX (x) = Z 1 +1 dx = +1, x et donc E (X) n’a pas de sens. On dit que X est intégrable quand on peut dé…nir son espérance. On noteL1 ( ; F; P ) (ou L1 ( ) quand il n’y a pas d’ambiguïté) l’ensemble 39 des v.a. intégrables. De la même façon, on dé…nit p L ( ; F; P ) = pour tout p X v.a. = Z R jxjp dPX (x) < +1 , 1. L’espace L2 ( ) des v.a. de carré intégrable joue un rôle essentiel : c’est un espace de Hilbert, muni du produit scalaire < X; Y >= E(XY ). Théorème 2.1.1 Si : R ! R est une fonction borélienne telle que grable, on a E [ (X)] = Z (X) dP = Dans cette formule, on a vu la loi de Z (X) soit inté- (x)PX (dx) . R (X) comme l’image par de la loi de PX . On peut aussi utiliser la formule directe E [ (X)] = Z xP (X) (dx) . R Dé…nition 2.1.7 La fonction caractéristique ou transformée de Fourier d’une v.a. X, est la fonction 'X (t) = E [exp (itX)] = Z exp (itx) PX (dx) . R On peut étudier, en général, une mesure F (y) = ~ (y) = (1=2 ) à l’aide de sa transformée de Fourier Z exp ( iyx) (dx) . (2.1) La notion suivante jouera un rôle fondamental dans la suite : Théorème 2.1.2 Soit G une sous-tribu de Fet X une v.a. intégrable. Il existe une unique v.a. Z G-mesurable telle que E (X 1A ) = E (Z 1A ) , pour tout A 2 G. 40 On appelle Z l’ espérance conditionnelle de X sachant G et on note Z = E (XjG), elle est caractérisée par E(XG) = E(ZG), 8G v.a.bornée G-mesurable: Quand X 2 L2 ( ), il existe une importante interprétation hilbertienne de l’espérance conditionnelle : E (XjG) est la projection de X sur l’espace des v.a. G-mesurables de carré intégrable. Quand G = (Y ) pour une certaine v.a. Y , on note parfois E (XjG) = E(XjY ) (espérance conditionnelle sachant Y ). Remarque 2.1.1 L’espérance conditionnelle possède les propriétés suivantes : -E [E (XjG)] = E(X), - Si X est G -mesurable, E (XjG) = X, -Si X est indépendante de G, E (XjG) = E(X), -Si G est la tribu triviale, E (XjG) = E (X), -Si G et H sont deux tribus telles que H G, alors E (XjH) = E [E (XjG) jH] = E [E (XjH) jG]. 2.1.3 processus stochastiques Nous aurons besoin dans ce mémoire de deux processus fondamentaux : le processus de Poisson, qui est une chaîne de markov (voir la prochaine section), et le mouvement Bownien qui est un processus de Markov. Dé…nition 2.1.8 Soit T un ensemble d’indices quelconque, dénombrable ou non.Un processus stochastique est une famille de variables aléatoires X = (Xt )t2T dé…nies sur un même espace de probabilité ( ; F; P ) à valeurs dans un espace mesurable (E; ) et indicées par un paramètre t appartenant à l’ensemble T . Lorsque T = N ou Z, X est egalement appelé suite aléatoire (et dans ce cas t et plus souvent noté n ou k) ou processus en temps discret, lorsque T = [0; ] ou R+ , 41 X est egalement appelé fonction aléatoire ou processus en temps continu. Dans le cas multidimensionnel T = Nd ou Rd , X est également appelé champ aléatoire. Lorsque T = f1; ng est …ni alors X = (X1 Xn ) est également appelé vecteur aléatoire. Remarquons qu’il est possible de représenter un processus stochastique comme une application X : T ! R de deux variables, mesurable par rapport à la seconde variable, avec X (t; !) = Xt (!), t 2 T , ! 2 . Pour chaque t dans T , Xt est donc une variable aléatoire,i.e une application mesurable de ( ; F) dans (E; ). Cette application décrit les etats possibles du processus pour chaque valeur t du paramètre. Dé…nition 2.1.9 Soit ! 2 , L’application X (:; !) : T ! E qui à t 2 T associé Xt (!)dans R est appelée une trajectoire ou realisation de Xt . Un processus "càdlàg" est un processus stochastique tel que pour tout !, les trajectoires t 7! Xt (!) sont continues a droites et pourvues de limites a gauche. Lorsque X est a trajectoires continues, on peut considérer que X est une v.a. a valeurs dans l’espace C([0; 1[; R) des fonctions continues de [0; 1[ a valeurs dans R. Dé…nition 2.1.10 Un processus X est dit mesurable si l’application t 7! Xt (!) est mesurable. Un processus X est dit continu si pour tout ! 2 , t 7! Xt (!) est continue (i.e. les trajectoires sont continues). Un processus est dit stationnaire si (Xt+s )t 0 = (Xt )t 0 pour tout s 2 R+ . En parti- culier, tous les Xt ont même loi. Dé…nition 2.1.11 On considère un processus stochastique en temps continue (Xt )t 0 , les accroissements de ce processus sont les variables Xt Xs pour tout 0 s t < +1. Ce processus est dit à accroissements indépendants lorsque pour tout n et tout 0 t0 t1 tn < +1, les variables Xt1 Xt0 ; Xt2 Xt1 ; Xtn Xtn 1 sont mutuellement indépendantes. Ce processus est dit à accroissements stationnaires lorsque 42 pour tout s et t loi(Xt+h 0 , la loi de l’accroissement Xt+h Xt ) = loi(Xh Xt ne dépend pas de t, i.e. X0 ). Les processus càdlàg, à accroissements indépendants et stationnaires, et issus de 0 sont appelés processus de Lévy. Le processus de Poisson et le mouvement brownien (M.B.) sont des exemples de processus de Lévy. 2.1.4 Mouvement brownien Commmençons d’abord par un peu d’histoire Un peu d’histoire Avant d’être un objet mathématique rigoureux, le mouvement brownien a été étudié en Botanique, en Finance, et en Physique. Le botaniste Robert Brown observe en1828 le mouvement irrégulier de particules de pollen en suspension dans l’eau. En 1877, Delsaux explique les changements incessants de direction de trajectoire par les chocs entre les particules de pollen et les molécules d’eau. Un mouvement de ce type est quali…é de “mouvement au hasard”. En1900, Bachelier, en vue d’étudier les cours de la Bourse met en évidence le caractère “markovien” du mouvement Brownien : la position d’une particule à l’instant t + s dépend de sa position en t, et ne dépend pas de sa position avant t. Il convient d’insister sur le caractère précurseur de Bachelier et le fait que la théorie du mouvement Brownien a été développée pour la Bourse, avant de l’être pour la Physique. En 1905, Einstein détermine la densité de transition du mouvement Brownien par l’intermédiaire de l’équation de la chaleur et relie ainsi le mouvement Brownien et les équations aux dérivées partielles de type parabolique. La même année, Smoluchowski décrit le mouvement Brownien comme une limite de promenades aléatoires. La première étude mathématique rigoureuse est faite par N. Wiener (1923) qui exhibe également une démonstration de l’existence du Brownien. P. Lévy (1948) s’intéresse aux propriétés …nes des trajectoires du Brownien. Depuis, le mouvement Brownien continue de passionner les probabilistes, aussi bien pour 43 l’étude de ses trajectoires que pour la théorie de l’intégration stochastique. Le mouvement Brownien Commençons par un rappel sur les lois normales dans R. Si m; normale (ou gaussienne) de moyenne m et de variance p 1 2 R dé…nie par la densité x 7 ! 2 e (x m)2 2 2 . Si 2 2 R on appelle loi , et on note N (m; 2 ), la loi sur = 0, on prendra la masse de Dirac m en m. N (0; 1) est la loi normale standard. Dé…nition 2.1.12 Le mouvement Brownien (ou processus de Wiener) standard réel est le processus stochastique fBt gt pour tout t s loi normale N (0; t 0, Bt 0 satisfaisant : 1- B0 = 0 , 2- Incréments indépendants : Bs est indépendant de fBu gu s , 3- La loi de Bt Bs est la s). On peut considérer Bt comme une seule v.a. sur l’espace des trajectoires R[0;1[ muni de tribu cylindrique G i.e. la plus petite tribu sur R[0;1[ qui rend les projections mesurables. Plus généralement, on appelle mouvement brownien réel tout processus B = (Bt ) véri…ant (1 ), (2 ) et (3 )’Bt Bs est la loi normale N (m; 2 (t s)) pour tout 0 s t. On peut montrer que le mouvement brownien (M. B. ) est continu a l’aide du résultat suivant. Théorème 2.1.3 (critère de Kolmogorov) SoitX = (Xt )t 0 un processus a valeurs dans Rd , supposons qu’il existe des constantes a; b; c > 0 telles que E j Xt Xs ja cjt s j1+b ~ De plus les trajectoires de X ~ sont p.s. locaalors X admet un modi…cation continue X. b lement höldériennes d’ordre pour tout 2 0; , i.e. pour tout T > 0 il existe cT tel a ~t X ~ s j cT j t s j pour tout 0 s; t T . que j X 44 Ce théorème s’applique au mouvement brownien, comme Bt E j Bt Bs j2n = 2n! jt 2n n! Bs N (0; t s), s jn on peut donc appliquer le théorème : le mouvement brownien admet une modi…cation qui est continue et ses trajectoires sont localement d’ordre 2. Equation de la chaleur Il en résulte que le M.B. est un processus markovien. Etudions sa fonction de transition. Elle est donnée par p (t; x; y) = p 1 exp( (y 2 t x)2 =2t); (2.2) C’est de façon heuristique, la probabilité pour que le brownien soit en y sachant que t instants auparavant il se trouvait en x. Par stationnarité des accroissements du brownien, c’est aussi la densité conditionnelle P (Bt+s 2 dyjBs = x) = (t; x; y) dy: La densité de transition véri…e les équations forward et backward @q 1 @2q 1 @2q (t; x; y) = (t; x; y) = (t; x; y) : @t 2 @x2 2 @y 2 Si, pour une fonction mesurable bornée f , on considère la fonction u(t; x) = E [f (Bt + x)] = Z f (x + y) g (t; y) dy = Z f (y) q (t; x; y) dy, ((3; 4)) on déduit de l’équation forward et du théorème de dérivation sous l’intégrale que u véri…e l’équation aux dérivées partielles 45 1 @2u @u = , @t 2 @x2 u(0; x) = f (x). (2.3) Cette équation porte le nom d’équation de la chaleur (u représente l’évolution de la température dans un corps homogène, avec conditions initiales données par f ). De plus, en dérivant sous l’intégrale, on a @2u = @x2 Z R h 00 i 00 f (x + y) g (t; y) dy = E f (Bt + x) : On peut ainsi écrire E [f (Bt + x)] f (x) = u(t; x) u(0; x) = Z t 0 1 @u (s; x)ds = @t 2 Z t 0 @2u (s; x)ds: @x2 d’où 1 E [f (Bt + x)] = f (x) + 2 Z 0 t h 00 i E f (Bs + x) ds: On peut également considérer des fonctions temps-espace : Soit f : R+ R ! R une fonction de classe C 1 en temps et C 2 en espace et B un Brownien. Alors E [f (t; Bt + x)] = f (0; x) + Z 0 t 0 1 00 E f t (s; Bs + x) + fx (s; Bs + x) ds: 2 Pour la démonstration de cette égalité voir [4] page 32. On dé…nit le générateur, voir 2.3.2, A du processus espace-temps (t; Bt ) comme l’opérateur agissant sur les fonctions de classe C 1 en temps et C 2 en espace : 1 2 Af (t; x) = @t f (t; x) + @xx f (t; x). 2 46 2.1.5 Processus de Poisson Nous avons donc vu que le mouvement brownien est essentiellement un processus continu à accroissements indépendants et stationnaires avec var(Bt Bs ) = t s. L’hypothèse "continue" a son importance. Nous introduisons maintenant le processus de Poisson (standard) (Nt )t 0 qui est le prototype des processus de saut. Ce processus sert à modé- liser le nombre d’appels téléphoniques dans un standard dans un laps de temps donné ou le nombre de désintégrations atomiques enregistrés dans un laps de temps donné etc. . Dé…nition 2.1.13 Un processus ponctuel ou un processus de comptage est un processus Nt dont les trajectoires t ! Nt (!) à valeurs dans N sont croissantes, continues à droite nulle on 0 et dont les sauts sont de taille 1. On associe à un processus de comptage ses temps de sauts successifs Tn = inf ft =Nt = ng et les valeurs du processus entre deux sauts consécutifs Sn = Tn Tn 1 . La loi du premier temps de saut T1 est une loi exponentielle de paramètre . De même, pour tout s > 0, la loi du premier événement après s, soit TNS +1 s, est une loi exponentielle de paramètre . Le processus de Poisson consiste alors à sauter d’une unité à chaque temps Tn . Voici une dé…nition plus formelle. Dé…nition 2.1.14 Un processus de Poisson (Nt )t tuel qui suit une loi de Poisson de paramètre 0 Nt0 , est un processus ponc- t. Il est équivalent de dire que : 1 Nt est issu de 0 (N0 = 0). 2 Pour tout réels t0 < t1 < Nt0 ,Nt1 d’intensité < tn , les variables aléatoires Ntn 1 , sont indépendantes. 3 Pour tous s et t, s Ntn t, Nt Ns a même loi que Nt s . 4 Nt suit une loi de Poisson de paramètre t. 5 P 0 (Nt = n) = ( t)n e n! t . Proposition 1 Soit k processus de Poisson indépendants (Nti )t 0 respectivement d’ink k P P tensité i . Alors Nt = Nti est un processus de Poisson d’intensit = i. i=1 i=1 47 Théorème 2.1.4 Un processus de Poisson (Nt ; t 0) d’intensité est markovien, de matrice de transition (t )y x ; si y (y x)! = 0 sinon. Pxy (t) = e t x, Mesures aléatoires de Poisson On va construire une classe beaucoup plus vaste de processus "poissoniens" dits de Lévy. Soient (S; A) un espace mesurable et une mesure …nie sur (S; A). Dé…nition 2.1.15 Une mesure aléatoire de Poisson N sur (S; A) est une collection de variables aléatoires (N (B); B 2 A) telle que : 1) pour tout B 2 A tel que (B) < +1, N (B) suit une loi de Poisson de paramètre (B), 2) si A1 ; :::; Am sont des ensembles disjoints de A, les variables aléatoires N (A1 ); :::; N (Am ) sont indépendantes, 3) pour tout ! 2 , l’application A ! N (A; !) est une mesure de comptage sur (S; A). Si N est un processus de Poisson alors la quantité N ([0; t] A) = # f0 est une mesure aléatoire de Poisson sur R+ B (R) d’intensité dt On peut aussi écrire N ([0; t] t; 4Ns 2 Ag , s A) = X si ;xi d avec ( ) = 1( ). (2.4) i Lemme 2.1.1 Si A est borné inférieurement et borélien, alors N ([0; t] A) < 1 presque sûrement. 48 Théorème 2.1.5 Si A est borné inférieurement, alors le processus (N ([0; t] A); t 0) est un processus de Poisson d’intensité (A). De plus si A1 ; :::; Am 2 B (R) sont disjoints alors les variables aléatoires N ([0; t] A1 ); :::; N ([0; t] Pour la démonstration voir [27] page 22. Pour t Am ) sont indépendantes. 0 et A borné inférieurement, on ~ par : dé…nit la mesure aléatoire de Poisson compensée N ~ ([0; t] N A) = N ([0; t] A) (2.5) t (A). Intégration de Poisson Soit N une mesure aléatoire de Poisson d’intensité dt sur R+ B (R). Si f : R ! Rn est une fonction Borel-mesurable et si A 2 B (R) véri…e (A) < +1, on dé…nit pour tout t 0 et ! 2 l’intégrale de Poisson de f par Z f (z) N (t; dz) = A X f (z) N ([0; t] z2A fzg). On remarque que la dé…nition ci-dessus ne pose pas de problème car la somme est une somme aléatoire …nie. Théorème 2.1.6 Soit A un ensemble borélien borné inférieurement. Alors : R 1- pour tout t 0, A f (z) N (t; dz) suit une loi de Poisson composée caractérisée par E[exp i Z f (z) N (t; dz) ] = exp t A Z eif (z) 1 A 2- si f 2 L1 (A; ) on a : E[ Z f (z) N (t; dz)] = t A Z f (z) dz, A 3- si f 2 L2 (A; ) on a : var[ Z f (z) N (t; dz)] = t A Z A 49 j f (z) j2 dz. dz , 2.1.6 Propriété de martingale L’une des façons de voir les martingales est la généralisation des sommes de variables indépendantes centrées, il faut pour cela dé…nir la notion de …ltration. Dé…nition 2.1.16 (Filtration naturelle) On appelle …ltration naturelle d’un processus 0 , où FtX = X la famille croissante de tribus FtX ; t (Xs ; 0 s t). La tribu Ft représente l’information contenue dans le processus X entre 0 et t. Plus généralement, on peut avoir besoin de mesurer des événements concernant les histoires de plusieurs processus. Il faut alors se donner une famille de tribus su¢ samment riche pour contenir les histoires de tous ces processus. Dé…nition 2.1.17 (Filtration) Soit ( ; F; P ) un espace de probabilité, Une …ltration fFt ; t s 0gsur ( ; F; P ) est une famille croissante de sous-tribus de F, i.e. Fs t. ; F; (Ft )t 0 Ft si ; P est appele espace de probabilité …ltré. Un processus stochastique est Ft -adapté (adapté à la …ltration (Ft )t 0 ) si Xt est Ft -mesurable, pour tout t 0. Ft représente maintenant toute l’information disponible à l’instant t. En particulier, tout processus est adapté à sa …ltration naturelle. Dé…nition 2.1.18 Soit X = (Xt )t2T un processus stochastique dé…ni sur un espace de probabilité …ltré ( ; F; fFt ; t 0g ; P ) adapté, et tel que E(jXt j) < +1, 8t 0. On dit que (Xt )t2T est une Ft -sous-martingale si E(Xt jFs) Xs , 0 (Ft )-sur-martingale si E(Xt jFs) (Ft )martingale si E(Xt jFs ) = Xs , 0 Xs , 0 s s t, s t, t. Le mouvement brownien (Bt ) est un exemple de martingale pour sa tribu naturelle. En e¤et, à cause de l’indépendance des accroissements et de leur loi, on a 50 E(Bt jFsB ) = E(Bs + (Bt Bs ) jFsB ); = Bs + E (Bt Bs ) ; = Bs . On a bien pris soin de véri…er que le processus est bien intégrable, puisque Bt En utilisant la même technique, on peut montrer que Bt2 N (0; 1). t est une martingale. Le processus de Poisson compensé voir 2.5 dé…ni par Nt t est une martingale centrée pour sa tribu naturelle. En e¤et E(Nt jFs) = E(Ns + (Nt Ns ) jFs); = Ns + E(Nt Ns ); = Ns + (t s) ; et donc E (Nt 2.1.7 tjFs) = Ns s: Processus de Markov On considère un espace de probabilité …ltré Dé…nition 2.1.19 Un processus X sur ; F; (Ft )t ; F; (Ft )t 0 0 ;P ; P à valeurs dans (E; ) est ap- pelé processus de Markov lorsque : P (Xt+h 2 BjXs ; s pour tout t; h t) = P (Xt+h 2 BjXt ) ; 0 et B 2 . 51 (2.6) La propriété 2.6 dite de Markov, signi…e que l’avenir du processus X ne dépend du passé que par l’intermédiaire du présent ou, en d’autres termes, conditionnellement au présent, futur et passé sont indépendants. Dé…nition 2.1.20 Un processus stationnaire X sur un espace de probabilité ; F; (Ft )t à valeurs dans (E; ) est appelé processus de Markov fort lorsque : P Xt+h 2 AjFtX = P (Xt+h 2 AjXt ) pour tout h 0, A 2 , t temps d’arrêt …ni et FtX = (Xs ; s t) la …ltration naturelle du processus X voir 2.1.16. Le mouvement brownien B standard et le processus de Poisson N d’intensité sont fortement markoviens, plus précisément pour tout temps d’arrêt (Nt+ N )t (Bt+ Bt )t 0 0 est un processus de Poisson d’intensité 0 …ni : et indépendant de F N . est un mouvement brownien indépendant de F B . Fonctionnelles additives En partant d’un processus de Markov donné X on peut construire d’autres processus de Markov à l’aide de la notion de fonctionnelles additives. On a la Dé…nition 2.1.21 Soit (St ) un processus croissant, adapté à la …ltration (Ft ). On dit que (St ) est une fonctionnelle additive, on notera simplement f.a., si pour tout couple ( ; t) 2 R2+ , on a S +t (!) = S (!) + St ( !), où t : ! (s) ! ! (s + t) est l’opérateur de translation. Exemple 2 Soit f une fonction mesurable positive. Posons St = Zt f (Xs )ds. Il n’y a 0 aucune di¢ culté à véri…er que St est une fonctionnelle additive si f est bornée. On a, voir [7], le 52 0 ;P Théorème 2.1.7 Soit X un procesuus de Markov et S une f. a. continue alors le processus X (S 1 (t; !) ; !), dont le temps obéit à une nouvelle horloge, est markovien. Si la fonctionnelle est discontinue on ne peut plus fabriquer d’horloge et la théorie n’est pas bien connue. Voyons comment se transforme le semigroupe après ce changement de temps. On doit d’abord construire la fonctionnelle multiplicative associée Mt = e S(t) , ensuite on dé…nit le nouveau semigroupe TtS f (x) = E x [Mt f (Xt )]: (2.7) Si la fonctionnelle est du type de l’exemple 2, alors le générateur de TtS sera donné, voir [29] où ce genre de résultats est connu sous le nom de formules de Feynman-Kac, par TtS = A f. Remarquons que la résolvante, voir ??, correspond tout simplement à f = (2.8) constante. La puissance des méthodes probabilistes provient du fait qu’on peut considérer des transformations à l’aide de fonctionnelles multiplicatives qui ne sont pas de la forme exp(A(t)) où A est additive. 2.1.8 Processus de Markov de saut pur Ces processus sont importants au chapitre III. Donnons d’abord quelques notions de Chaînes de Markov. Nous étudions ensuite un cadre général de processus de saut. Chaînes de Markov Les chaînes de Markov, considérées dans ce paragraphe, seront des processus en temps discret, i.e. des suites X0 ; X1 ; :::; Xn ; ::: de variables aléatoires dé…nies sur un même espace de probabilités ( ; F; P ) et prenant leurs valeurs dans un ensemble dénombrable d’états E, muni de la tribu formée de toutes ses parties P (E). 53 Dé…nition 2.1.22 Un processus X0 ; X1 ; :::; Xn ; ::: à valeurs dans E est appelé chaîne de Markov si pour tout n 1 et tout (X0 ; X1 ; :::; Xn 1 ) 2 F n tel que P (X0 = x0 ; :::; Xn 1 = xn 1 ) 6= 0 P (Xn = xjXn 1 = xn 1 ; :::; X1 = x1 ; X0 = x0 ) = P (Xn = xjXn 1 = xn 1 ), (2.9) pour tout x 2 E. La propriété de Markov 2.9 signi…e que la loi de Xn de dépend que du dernier état visité, à l’instant n 1. C’est le caractère « sans mémoire » des processus de Markov, analogue des systèmes déterministes dé…nis par des équations du type : xn = f (xn 1 ) ; Le rôle de la fonctionf sera joué par la matrice de transition M dé…nie par : M (x; y) = P (Xn = yjXn 1 = x); x; y 2 F . (2.10) Les matrices de transition, considérées dans ce paragraphe seront supposées stationnaires, i.e indépendantes de n. La chaîne de Markov correspondante est alors dite homogène. Processus de saut pur Fondamentalement, supposer Xt markovien implique que les temps d’attente Sn sont indépendants et à valeurs dans N et continus a droite. Un tel processus possède donc des trajectoires constantes par morceaux. Il reste sur un premier état i1 pendant un intervalle de temps S1 , puis saute sur un second etat i2 pendant un intervalle de temps S2 , etc. On dé…nit les temps d’arrêt : T0 = 0 et Tn+1 = inf (t 54 Tn : Xt 6= XTn ) ; Sn = Tn Tn 1 si Tn 1; 1 = +1 sinon. Tn sont les instants de saut auxquels se produisent les événements et Sn sont les temps d’attente entre deux événements. Le processus (Yn )n2N dé…ni par Yn = XTn , est un processus en temps discret appelé chaîne incluse. On pose : T1 = supTn = n2N X Sn : n 1 Juste avant l’instant T1 le processus "s’emballe" en sautant une in…nité de fois, T1 est appelé temps d’explosion. Le processus peut se poursuivre après cet instant mais toute fois nous allons convenir que Xt = +1; 8t T1 . Nous dirons dans ce cas que le processus est minimal. Un processus minimal est donc entièrement caractérisé par ses temps d’attente S1, S2 (ou ses instants de saut T0 ; T1 ) et pas sa chaîne incluse (Yn )n2N . 2.1.9 L’intégrale stochastique Dans cette section on cherche à dé…nir des variables aléatoires du type !7 ! Z T Xs dMs (!), 0 55 (2.11) où fXt ; t 0g est un certain processus et fMt ; t 0g est une martingale, par exemple un mouvement brownien. Le problème est bien sûr de donner un sens à l’élément différentiel dMs puisque la fonction s 7 ! Bs n’est pas dérivable. Un objet mathématique adéquat, introduit par K. Itô en 1942, est l’intégrale stochastique. Une justi…cation de l’approche que nous allons utiliser est la remarque suivante : il est facile de donner un RT sens à 0 Xs dMs en prenant une partition 0 = t0 < t1 < < tn = T de l’intervalle [0; T ]. Pour …xer les idées, soit Ms = Bs . L’intégrale de Wiener L’intégrale de Wiener est simplement une intégrale du type 2.11 avec X fonction déterministe, i.e. ne dépendant pas de !. Le cas des fonctions en escalier Si X = f est une fonction en escalier, que l’on note simplement f (t) = n P i 1[ti ;ti+1 ] (t) i=1 il est très facile de dé…nir son intégrale de Wiener par : IT (X) = Z T f (s) dBs = 0 n X i Bti+1 Bti : i=1 Remarquons que par le caractère gaussien du Brownien et l’indépendance de ses accroissements, la variable aléatoire IT (f ) est une variable gaussienne d’espérance nulle et de variance V ar [IT (f )] = n X 2 iV ar Bti+1 Bti ; i=1 = = n X i=1 Z T 2 i (ti+1 ti ) ; f 2 (s) ds: 0 De plus, on remarque que f 7 ! IT (f ) est une fonction linéaire au sens où IT (af + bg) = 56 aIT (f ) + bIT (g) pour toutes fonctions f , g en escalier et tous a, b 2 R, en…n on a E [IT (f ) IT (g)] = (1=2) (V ar [IT (f ) + IT (g)] V ar [IT (f )] V ar [IT (g)]) ; Z T Z T Z T 2 2 (f + g) (s) ds f (s) ds g 2 (s) ds ; = (1=2) 0 0 0 Z T f (s) g (s) ds: = 0 Cette dernière égalitést très importante et signi…e que l’application f 7 ! IT (f ) est une isométrie de L2 ([0; T ] ; R) dans L2 ( ; P ). On parle alors de la propriété d’isométrie de l’intégrale de Wiener, ce qui signi…e hIT (f ) ; IT (g)iL2 ( ) = hf; giL2 (R) : Le cas général Pour construire IT (f ) quand f est un élément quelconque de L2 ([0; T ] ; R), on utilise l’isométrie miseen place et les deux lemmes suivants : Lemme 2.1.2 Soit f 2 L2 ([0; T ] ; R). Il existe une suite de fonctions en escalier ffn ; n que kf fn k ! 0 quand n ! +1. Lemme 2.1.3 Soit fXn ; n 0g une suite de variables gaussiennes N ( geant vers une v.a. X dans L2 (soit telle que E [j X Alors, n ! et n ! n; n) conver- Xn j2 ] ! 0). quand n ! +1 quand n ! +1 et X v N ( ; ). Soit maintenant f 2 L2 ([0; T ] ; R) et soit, d’après le Lemme 2.1.2,ffn ; n suite de fonctions en escalier telle que kf fn k ! 0 quand n 0g une ! +1. D’après le paragraphe précédent on peut construire les intégrales de Wiener IT (fn ) qui sont des gaussiennes centrées qui, par isométrie forment une suite de Cauchy. L’espace L2 étant complet, cette suite converge vers une v.a. gausienne notée IT (f ). Par le Lemme 2.1.3, IT (f ) v N (0; kf k). l’application IT (f ) est linéaire et isométrique de L2 ([0; T ] ; R) dans 57 0gtelle L2 ( ; P ), au sens où IT (af + bg) = aIT (f )+bIT (g) et E [IT (f ) IT (g)] = RT 0 f (s) g (s) ds, pour tous a, b 2 R et f ,g 2 L2 ([0; T ] ; R). En …n IT (f ) est une variable gaussienne mesurable qui véri…e pour tout t 2 [0; T ] Z Z T T E [IT (f ) Bt ] = E f (s) dBs 1[ti ;ti+1 ] (s) dBs 0 0 Z T f (s) 1[ti ;ti+1 ] (s) ds, = 0 Z T f (s) ds, = , 0 où la deuxième égalité provient de la formule d’isométrie. Par propriété d’espace gaussien, cette formule caractérise l’intégrale stochastique : IT (f ) est l’unique v.a. Z gaussienne RT mesurable telle que E [ZBt ] = 0 f (s) ds pour tout t 2 [0; T ]. L’intégrale stochastique générale On cherche maintenant à dé…nir la v.a. Z t s dBs , 0 quand f s ; s 0g est un processus stochastique. Le caractère aléatoire de va exiger des conditions supplémentaires par rapport au cas de l’intégrale de Wiener. On note FtB ; t 0 la …ltration naturelle du mouvement brownien B. Comme dans le cas de l’intégrale de Wiener, la construction de It ( ) se fait par discrétisation : Cas des processus étagés Ce sont les processus du type t = n X i 1[ti ;ti+1 ] i=1 58 (t) , où n 2 N, 0 = t0 < t1 < < tn = T et i 2 L2 ( ; Fti ; P ) pour tout i = 0 n. On dé…nit alors It ( t ) = Z t s dBs = 0 n X i Bti , Bti+1 i=1 et on véri…e que E [It ( t )] = 0 et V ar [It ( t )] = E Z t ( s )2 ds . 0 Cependant, on prendra garde que par le caractère aléatoire de t, la variable It ( t ) n’est pas une Gaussienne en général. cas général Le principe est le même que pour l’intégrale de Wiener, mais les outils mathématiques sous-jacents plus compliqués que les lemmes hilbertien et gaussien du paragraphe est un bon processus, on montre d’abord qu’il existe f n ; n 0g suite i hR t n 2 ) ds ! 0 quand n ! +1, puis que pour de processus étagés telle que E 0 ( s précédent. Si tout t > 0 il existe une v.a. It ( ) de carré intégrable telle que E (It ( ) quand n It ( n ))2 !0 ! +1, avec It ( n ) dé…ni comme au paragraphe précédent. On pose alors naturellement It ( ) = Z t s dBs , 0 pour tout t > 0. 2.2 Espace de Fock poissonien On va dé…nir un espace de Fock classique, i.e. où i ne …gure pas. On suivera l’article [22]. Le calcul anticipatif (calcul de Malliavin) pour le mouvement brownien a été développé par plusieurs auteurs, voir un compte rendu dans [21]. Ce calcul stochastique est basé sur l’intégrale de Skorokhod , qui est l’adjoint de l’opérateur de dérivation D 59 de Malliavin. Il y a des propriétés de base de et D qui s’expriment en terme de chaos de Wiener. Ce fait nous mène naturellement à étudier ces opérateurs dans un contexte di¤érent comme le cas poissonien. Plus généralement ces opérateurs peuvent être dé…nis dans un espace de Fock arbitraire associé à l’espace de Hilbert H. Soit H un espace de Hilbert réel, le produit tensoriel symétrique Hs est dé…ni comme n dans 2.3.4. Dans Hs on considère la norme n kf k2Hsn = n! kf k2H n Dé…nition 2.2.1 L’espace de Fock associé à H est l’espace de Hilbert (H) = muni du produit scalaire hh; gi t.q. h = 1 P hn , g = n=0 1 P (H) = 1 n=0 1 X n=0 Hs n hhn ; gn iHsn , gn n=0 On prendra H = L2 (E) où (E; ; ) est essentiellement un espace mesuré Dans ce cas H n …nie. est isométrique à L2 (E n ). Ses éléments sont les intégrales stochastiques poissoniennes multiples. La martingale directrice est une mesure de Poisson compensée In (f ) = Z f (t1 ; :::; tn ) (! ) (dt1 ) ::: (! ) (dtn ) ; Tn où ! est la mesure de Poisson compensée et T n = f(t1 ; :::; tn ) 2 T n : ti 6= tj 8i 6= jg. 60 2.2.1 Opérateur d’annihilation Dé…nition 2.2.2 L’opérateur d’annihilation, qui agit des processus, est donné par Dt F (!) = F (! + t ) F (!) ; où ! est donné par 2.4. Le lemme suivant montre qu’il s’agit d’un opérateur de dérivation Lemme 2.2.1 Soient F et G deux fonctionnelles, alors on a Dt (F G) = F Dt (G) + G Dt (F ) + Dt (F ) Dt (G) : Preuve. Dt (F G) = F (! + t ) G (! + t ) = F (! + t ) G (! + t ) F (!) G (!) , F (! + t ) G (!) + F (! + t ) G (!) F (!) G (!) , = F (! + t ) Dt (G) + Dt (F ) G (!) , = (F (! + t ) F (!)) Dt (G) + Dt (F ) G + F Dt (G) , = F Dt (G) + GDt (F ) + Dt (F ) Dt (G) . 2.2.2 Opérateur de création Soit u un processus dans L2 (E; L2 ( )), par le développement en chaos (Poissonien) on a ut = X In (fn (t1 ; :::; tn ; t)) ; n 0 pour presque tout t où ut est une fonction dans L2s (T ). 61 Dé…nition 2.2.3 L’opérateur de création, qui agit des processus, est donné par (u) = X In+1 f~n (t1 ; :::; tn ; t) , n 0 pour vu que X (n + 1)! f~n (t1 ; :::; tn ; t) n 0 où 1 f~n (t1 ; :::; tn ; t) = (n + 1)! ( n X 2 L2 (T n+1 ) < +1; ) fn (t1 ; :::; t; :::; tn ; ti ) + fn (t1 ; :::; tn ; t) : i=1 Pour un calcul pratique on utilise le théorème suivant Théorème 2.2.1 Soit u 2 L2 (T; L2 ( )) L2 (T ), u 2 Dom et F 2 D L2 ( ). On suppose encore que DF u 2 Dom . Alors Ft u 2 Dom ; et (Ft u) = F (u) Z ut Dt F (dt) (DF u) : T Preuve. Si G 2 D, est une variable test, et utilisant D est dense dans L2 ( ), E Z T F ut Dt G (dt) = Z ut fDt (F G) GDt F Dt F Dt Gg (dt) Z = E [F G (u)] E G ut Dt F (dt) E [G (uDF )] T Z = E G F (u) ut Dt F (dt) (uDF ) T T = E [G (F u)] : 62 2.3 Probabilité non commutative Nous venons de voir comment les probabilités classiques s’articulent autour de la théorie de la mesure et intégration. On verra ici que les probabilités non commutatives sont basées sur l’analyse fonctionnelle et espaces de Hilbert. Nous passons donc en revue quelques éléments de ces théories. 2.3.1 Rappels sur analyse fonctionnelle et Espace de Hilbert La notion d’espace de Hilbert réel ou comlexe, est bien connue. Nous demandons au lecteur de bien remarquer la forme particulière du produit scalaire voir 1.4.Voici quel qu’exemples Exemple fondamentaux 1- L’espace Cn , muni du produit scalaire dé…ni par hx; yi = n X xi yi , i=0 est un espace de Hilbert complex. La base canonique de Cn est une base orthonormale. P 2- L’espace `2 (N) = (un ) t.q j un j2 < 1 est muni du produit scalaire n2N hu; vi = X un v n , est un espace de Hilbert complex. Pour k 2 N, on note ek la suite dont tous les termes sont nuls, à l’exception du k-ème quivaut 1. Alors (ek )k2N est une base orthonormale de `2 (N). 3- Si ( ; F; ) est un espace mesuré, l’espace 2; L ( ; F; ) = f : ! C t.q: Z j f (x) j2 dx < +1 est un espace de Hilbert quand on le munit du produit scalaire 63 , hf; gi = Z f (x)g (x) d (x). Dans la suite, H désigne un espace de Hilbert complexe séparable et h ‚i le produit scalaire. Parties complètes Soit A une partie non vide de H Dé…nition 2.3.1 L’orthogonal de A est l’ensenble A? tel que A? = fx 2 H : hx; yi = 0 8y 2 Ag. 8 > > A si A est une partie quelconque, > < ? Remarque 2.3.1 A? = A si A est un sous-espace véctoriel de H, > > > : A si A est un sous-espace véctoriel fermé de H. Dé…nition 2.3.2 Soit A un sous-ensemble de H, on appelle enveloppe linéaire de A et on note Lin (A), le plus petit sous-espace contenant A P Lin (A) coïncide avec l’ensemble des combinaison linéaire …nie d’éléments de A ( i xi Lin (A)) Dé…nition 2.3.3 Une suite orthonormé (en )n2N (i.e. hek ; el i = k;l pour tout k, l 2 N) dans un éspace de Hilbert H est dit totale (ou complète) si le seul vecteur de H orthogonale à tous les vecteurs en est le vecteur nul i.e. y 2 H tq hy; en i = 0; 8n 2 N =) y = 0. On dit que (en )n2N est une base hilbertienne de H. Remarque 2.3.2 (en )n2N suite orthonormé totale , Lin (e1 en ) = H: Domaine, graphe et fermeture On rappelle que la somme directe H H est l’espace de Hilbert H produit scalaire h(x; y) ; (x0; y0)i = hx; x0iH + hy; y0iH . 64 H muni du Dé…nition 2.3.4 Un opérateur dans H est une application linéaire T dé…nie sur un sous-espace vectoriel D (T ) H à valeurs dans H. D (T ) est appelé le domaine de l’opérateur. On note un opérateur par (T; D (T )) mais s’il n’y a pas d’ambiguïté concernant son domaine on pourra noter simplement par T . Dé…nition 2.3.5 On dit qu’un opérateur (T; D (T )) dans H est borné si D (T ) = H et T : H ! H est continue. Les opérateurs bornés sur H forment une algebre notée B (H), qui est une algèbre de Banach pour la norme k k. Il y a d’autres topologies intéressantes sur B (H), citons entre autres la topologie fort forte, qui est celle de la convergence simple sur H i.e kTn k ! kT0 k si et seulement si 8x 2 H Tn (x) ! T0 (x), et qui est (malgré son nom) plus faible que celle de la norme i.e kT T0 k ! 0. Dé…nition 2.3.6 Le graphe d’un opérateur (T; D (T )) est le sous-espace de H H donné par (T ) = f(x; T x) : x 2 D (T )g . Dé…nition 2.3.7 On dit que (S; D (S)) est une extension de (T; D (T )) si D(T ) et T x = Sx pour tout x 2 D(T ), (Autrement dit, (T ) (S)). Dé…nition 2.3.8 On dit que (T; D(T )) est fermé si son graphe H D(S) (T ) est un fermé de H. Proposition 2 Un opérateur (T; D(T ))est fermé si et seulement si pour toute suite (xn ) de D(T ) telle que limxn = x et limT xn = y on a alors x 2 D(T ) et y = T x. n n Proposition 3 Soit (T; D(T )) un opérateur fermé. Alors T est borné si et seulement si D(T ) = H. 65 Dé…nition 2.3.9 On dit qu’un opérateur(T; D(T )) est fermable s’il possède une extension fermé. Proposition 4 Tout opérateur fermable (T; D(T )) admet une plus petite extension fermée notée T . De plus, on a (T ) = (T ) Spectre des opérateurs continus Soit T 2 B (H), Dé…nition 2.3.10 Une valeur régulière de T est un élément 2 C tq (T I) soit inversible, i.e. une bijection continue de D (T ) sur H. L’ensemble des valeurs régulières de T est appelé l’ensemble résolvant de T . Un élément de C qui n’est pas une valeur régulière de T est appelé une valeur spectrale de T . L’ensemble des valeurs spectrales est appelé le spectre de T , et noté Sp (T ) ou L’application RT :C=Sp (T ) ! B (H) dé…nie par ! (T I) 1 (T ). s’appelle l’applica- tion résolvante de T . Dé…nition 2.3.11 Le rayon spectral de T est r (T ) = sup j 2Sp(T ) (avec la convention usuelle que r (T ) = j, 1 si Sp (T ) est vide). Dé…nition 2.3.12 Une valeur propre de T est un élément 2 C tq le noyau de (T non nul (ou, de manière équivalente, tel que l’application linéaire (T I)soit I) ne soit pas injective). Le sous-espace vectoriel ker (T I) est alors appelé l’espace propre de T associé à . La dimension de cet espace propre (qui peut être in…nie) est appelé la multiplicité de . Un élément non nul de ker (T I) est appelé un vecteur propre de T associé à la valeur propre . L’ensemble des valeurs propres est noté V p (T ), et aussi appelé le spectre ponctuel de T . 66 Dé…nition 2.3.13 Le spectre résiduel de T est l’ensemble, noté Spres (T ), des non valeurs propres tels que l’image de (T 2 C I) ne soit pas dense dans H. Exemple 3 Si H 6= f0g et si T est l’opérateur nul, alors Sp (T ) = V p (T ) = f0g et Spres (T ) = ;. Si H 6= f0g et si T est l’opérateur identité, alors Sp (T ) = V p (T ) = f1g et Spres (T ) = ;. Remarque 2.3.3 1- Si H est de dimension …nie n, alors tout opérateur linéaire de H est continu et tout sous-espace vectoriel de H est fermé. Donc (T et seulement si (T I) est inversible si I) est injectif ou surjectif. Le spectre résiduel est donc vide. Les valeurs spectrales de T sont donc les valeurs propres de T . 2- Toute valeur propre est une valeur spectrale : V p (T ) Sp (T ), en dimension …nie, nous venons de voir que cette inclusion est une égalité. 3- Si l’image de (T Spres (T ) I) n’est pas dense, alors (T Sp (T ), et par hypothèse, on a même Spres (T ) I) n’est pas surjectif, alors Sp (T ) =V p (T ) 4- Pour tout dans C=f0g, nous avons 5-Sp ( T ) = Sp (T ), V p ( T ) = V p (T ), Spres ( T ) = Spres (T ) et r ( T ) =j j r (T ). Opérateurs auto-adjoints Adjoint d’un opérateur Soient E, F et G des espaces de Hilbert Proposition 5 Pour tout T 2 B (E; F ), il existe une unique application T 2 B (F; E) tq hT y; xiE = hy; T xiF 8x 2 E y 2 F . L’application T ! T est involutive (i.e. (T ) = T ), anti-linéaire (i.e. (T + k) = T + k , isométrique (i.e. kT k = kT k) et véri…e I = I et (T k) = k T 8T 2 B (E; F ), k 2 B (G; E). L’opérateur continu T est inversible si et seulement si T l’est, et alors (T ) 1 = (T 1 ). 67 L’application T est appelée l’adjoint de T . Un opérateur de la forme T est toujours fermé. Dé…nition 2.3.14 Soit H un espace de Hilbert, un opérateur T 2 B (H) est dit auto-adjoint (ou hermitien) si hT x; yi = hx; T yi 8x; y 2 H), normal si T T = T T , unitaire s’il est borné, inversible et T T = T T = I (T = T positif si hT x; xi 1 ), 0 8x 2 H. de rang …ni si ImT est de dimension …ni. Si T est de rang …ni, alors T est de même rang (…ni). On dit que T est compact si pour tout suite (xn ) unitaire de H on peut extraire une sous suite (xk ) tel que son image par T est une suite convergente. Tout opérateur T de rang …ni est compact et tout opérateur compact est continu. Pour qu’un opérateur T soit compact il faut et il su¢ t qu’il soit limite d’une suite d’opérateurs de rang …ni. Les projections sur H sont des opérateurs positifs p = p = p2 . Propriétés élémentaires des opérateurs auto-adjoints Les propriétés élémentaires principales des opérateurs auto-adjoints sont résumées dans la proposition suivante Proposition 6 Soient H un espace de Hilbet et T 2 B (H) 1) Le spectre de l’adjoint T de T est l’ensemble des conjugués des éléments du spectre de T : Sp (T ) = Sp (T ): Si T est inversible, alors le spectre de son inverse T éléments du spectre de T : (SpT 1 1 est l’ensemble des inverses des ) = [Sp (T )] 1 . 2)L’orthogonal de l’image de T est le noyau de son adjoint et le noyau de T est l’orthogonal de l’image de son adjoint : (ImT )? = kerT , kerT = (ImT )? .En particulier, T est injectif si et seulement si T est d’image dense. 68 3)Supposons que H 6= f0g. Si T est auto-adjoint, si M = sup hT x; xi et m = inf hT x; xi, alors M et m appartiennent au spectre de T , Sp (T ) kxk=1 kxk=1 r (T ) = kT k = sup j hT x; xi j= max fM [m; M ], et mg : kxk=1 4)Si T est auto-adjoint, alors son spectre résiduel est vide : Spres (T ) = ;. Pour la démonstration de cette proposition voir Paulin [23] page 42. Résolution spectrale des opérateurs auto-adjoints Le but de cette partie est de décrire un opérateur auto-adjoint d’un espace de Hilbert par des quantités dé…nies sur son spectre. Les projecteurs orthogonaux jouent un rôle important. Dé…nition 2.3.15 Un projecteur orthogonal d’un espace de Hilbert H est un opérateur continu p de H tel qu’il existe un sous-espace vectoriel fermé F de H tq p(x) soit la projection orthogonale de x sur F pour tout x 2 H . Notons que F est alors l’image de p. Il est clair que p est un opérateur auto-adjoint idempotent (i.e. p = p2 ). On note } (H) l’ensenble de tous les opérateurs de projection sur H. Dé…nition 2.3.16 Soit H un espace de Hilbert. Une famille (p ) 2R des projecteurs orthogonaux de H est appelée une résolution de l’identité de H si 1- p p = pminf 2- p = 0 si ; g, est assez petit, et p = I si est assez grand, 3-pour tout x dans H, nous avons lim + p (x) = p (x). ! Proposition 7 Soient H un espace de Hilbert complexe, (p ) 2R une résolution de l’iden- tité, et f 2 C(R; C). Il existe un unique opérateur continu T 2 B (H) tq, pour tout x 2 H, hT x; xi = Z f ( ) dhp x; xi. 2R 69 Cet opérateur continu est auto-adjoint si f est à valeurs réelles, et positif si f est à valeurs positives. Cet opérateur continu sera noté T = Z f ( ) dp . 2R Théorème 2.3.1 (Résolution spectrale) soient H un espace de Hilbert et T 2 B (H) un opérateur auto-adjoint de H. Il existe une et une seule résolution de l’identité (p ) 2R , appelée la résolution spectrale de T , tq pour tout f 2 C (Sp (T )) f (T ) = Z f ( ) dp . 2Sp(T ) Groupe à un paramètre Il n’est pas toujours facile de véri…er qu’un opérateur donné est auto-adjoint (un critère bien connu est de trouver un groupe unitaire généré par un opérateur auto-adjoint). Dé…nition 2.3.17 Un groupe à un paramètre est une famille (Tt )t2R d’opérateures unitaires fortement continus en t i.e pour tout x 2 H, lim Ts x = Tt x et t.q. Tt+s = Tt Ts s !t pour tout s,t 2 R Si A est un opérateur auto-adjoint de H, alors la famille Tt = eitA est un groupe à paramètre, la réciproque est connue sous le nom de théorème de Stone. Si (Tt )t2R est un groupe à un paramètre, alors il exéste un opérateur A auto-adjoint de H tel que Tt = eitA . plus précisément on a le Théorème 2.3.2 Soit (Tt )t2R un groupe fortement continu d’opérateures unitaires et A un opérateur tq D (A) = ( 1 Tt ( ) 2 H; lim t !0 i t ) existe . Alors D (A) est dense dant H, et l’opérateur A dé…ni sur le domaine D (A) par A = lim 1i Ut ( t) t !0 est un opérateur auto-adjoint de plus on a Tt = eitA . 70 T s’appelle le générateur de Stone du groupe (Tt ). Remarque 2.3.4 Pour un opérateur non borné A, le cas f (A) = exp (itA) est spécial et existe toujours : c’est le théorème de Stone 2.3.2. Sinon, on devra utiliser le théorème spectral. Opérateur à trace et états Dé…nition 2.3.18 Soit T un opérateur borné, on dit que T est à trace si 1 P n=0 j hT en ; en i j < +1 pour une base orthonormale (en ) de H. La trace de T est la quantité tr (T ) = 1 P j hT en ; en i j qui ne dépend pas de la base utilisée. n=0 L’ensemble des opérateurs à trace = (H) forment un idéal de l’algèbre B (H), i.e = (H) est un sous algèbre B (H) et 8A 2 B (H), 8T 2 = (H), AT 2 = (H). La forme linéaire : T 7! trT satisfait les propriétés suivantes : 1-tr( T1 + T2 ) = trT1 + trT2 8 , 2 R, 2-tr(T1 T2 ) =tr(T2 T1 ) en particulier, si T est inversible alors trT 1 = (trT ) 1 3-trT = trT , 4-Si T > 0 alors trT > 0, 5-L’espace de B (H) muni du produit scalaire hT1; T2 i =trT1 T2 est un espace de Hilbert, Dé…nition 2.3.19 Soient x, y 2 H, on dé…ni l’opérateur j xihy j par j xihy j (w) = hy; wix, 8w 2 H. Proposition 8 l’application (x; y) 7 !j xihy jsur H H dans B (H) satisfait les propriétés suivantes : 1-j xihy j est linéaire pour y et anti-linéaire pour x, 2-(j xihy j) = j xihy j =j yihx j, 3-k j xihy j k = kxkkyk, 4-j x1 ihy1 j j x2 ihy2 j j xn ihyn j = n 1 i=1 71 hyi ; xi+1 i j x1 ihyn j, 5-8T 2 B (H) : T j xihy j=j T xihy j=j xihT y j=j xihy j T , 6-Soit p une projection et fe1 ; e2 en g une base ortonormale de Im (p) alors : p= n X i=1 j ei ihei j . Dé…nition 2.3.20 Si T est un opérateur positif de trace 1, la forme linéaire sur B (H) dé…nie par : S 7 ! trST est appelée l’état correspondant à T . Par abus de langage, on confondra parfois l’opérateur T avec l’état qu’il dé…ni. L’ensenble des états est une partie convexe, compacte du dual de B (H) dont les poins extrémaux sont les états de la forme T 7 ! hT u; ui (appelée aussi état purs) où u est un vecteur de norme 1. 2.3.2 Semi-groupes Soit E un espace de Banach sur le corps des nombres complexes C, notons par B (E) l’algèbre de Banach des opérateurs linéaires bornés dans E et par I l’unité de B (E). Dé…nition 2.3.21 On dit qu’une famille T = (T (t))t quand pour tout s; t 0 B (E) est un semi-groupe 0 T (t + s) = T (t)T (s), et T (0) = I. Un semi-groupe est dit uniformément continu quand t 2 R+ ! T (t) 2 B (E) est une application continue, fortement continu quand t 2 R+ ! T (t)x 2 E est une application continue pour tout x 2 E. Dé…nition 2.3.22 On appelle C0 -semi-groupe d’opérateurs linéaires bornés sur E une famille fT (t)gt 0 B (E) véri…ant les propriétés suivantes 1) T (0) = I , 2) T (t + s) = T (t)T (s); (8)t; s 0, 3) lim T (t)x = x; (8)x 2 E. t !0 72 Dé…nition 2.3.23 On appelle générateur in…nitésimal du C0 -semi-groupe fT (t)gt 0 , un opérateur A dé…ni sur l’ensemble : D(A) = T (t)x !0 t x 2 E= lim t x existe , par : T (t)x !0 t Ax = lim t x ; 8x 2 D(A). Exemple 4 Soit : Cub [0; 1[= ff : [0; 1[! R=f est uniformément continue et bornéeg. Avec la norme kf kCub [0;1[ = Sup j f ( ) j, l’espace Cub [0; 1[ devient un espace de 2[0;1[ Banach. Soit (T (t)f )( ) = f (t + ); 8t 0 et 2 [0; 1[. Evidemment T (t) est un opérateur linéaire, et, en plus, on a : 1-(T (0)f )( ) = f (0 + ) = f ( ). Donc T (0) = I. 2-(T (t + s)f )( ) = f (t + s + ) = (T (t)f )(s + ) = (T (t)T (s)f )( ); (8)f 2 Cub [0; 1[, donc 3- lim kT (t)f t !0 T (t + s) = T (t)T (s); 8t; s ( f kCub [0;1[ = lim t !0 Sup jf (t + ) 0. ) f ( )j 2[0;1[ = 0, 8f 2 Cub [0; 1[. De mème, nous avons : kT (t)f kCub [0;1[ = Sup j(T (t)f )( )j = Sup j f (t + ) j = Sup jf ( )j 2[t;1[ Sup jf ( )j = kf kCub [0;1[ 8t 2[0;1[ Par conséquent fT (t)gt 2[0;1[ 2[0;1[ 0, donc kT (t)k = 1; (8)t 0. 0 est un C0 -semi-groupe d’opérateurs linéaires bornés sur Cub [0; 1[, nommé le C0 -semi-groupe de translation à droite. 73 Soit A : D(A) Cub [0; 1[ ! Cub [0; 1[ le générateur in…nitésimal du C0 - semi- groupe fT (t)gt 0 . Si f 2 D(A), alors nous avons : T (t)f ( ) f ( ) , t !0 t f (t + ) f ( ) = lim = f0 ( ) ; t !0 t Af ( ) = lim uniformément par rapport à . Par conséquent : D(A) ff 2 Cub [0; 1[=f 0 2 Cub [0; 1[g. Si f 2 Cub [0; 1[ tel que f 0 2 Cub [0; 1[, alors : k T (t)f t f f 0 kCub [0;1[ = Sup j 2[0;1[ (T (t)f )( ) t f( ) f 0 ( ) j, mais : j (T (t)f )( ) t f( ) f ( + t) f ( ) f 0 ( ) j, t +t 1 = j f( ) j f 0 ( ) j, t Z+t 1 j [f 0 ( ) f 0 ( )]d j , = t f0 ( ) j = j 1 t Z +t j f0 ( ) f0 ( ) j d uniformément par rapport à suite : k T (t)ft f f 0 kCub [0;1[ ! 0 si t ! 0 d’où f 2 D(A) et : ff 2 Cub [0; 1[jf 0 2 Cub [0; 1[g 74 D(A). ! 0, pour t ! 0. Par Par conséquent D(A) = ff 2 Cub [0; 1[=f 0 2 Cub [0; 1[)g et Af = f . Comme cet opérateur est non borné, il ne peut pas engendrer un semi-groupe uniformément continu. Nous noterons par SG(M; !) l’ensemble des C0 -semi-groupes fT (t)gt lesquels il existe ! 0 et M 0 B( ) pour 1 tel que : M e!t ; (8)t k T (t) k Dans ce cas, on dit que fT (t)gt 0 Proposition 9 Soient fT (t)gt 0 0. est un C0 -semi-groupe exponentiellement borné. SG(M; !) et A son générateur in…nitésimal. Si x 2 D(A), alors T (t)x 2 D(A) et on a l’égalité : T (t)Ax = AT (t)x, 8t Soit x 2 D(A), Alors pour tout t 0. 0, nous avons : T (h) x x , h T (h) T (r) x T (t) x = lim , h !0 h T (t)Ax = T (t) lim h !0 donc T (t)x 2 D(A) et on aT (t)Ax = AT (t)x; 8t Proposition 10 Soient fT (t)gt 0 2 SG(M; !) et A son générateur in…nitésimal. Alors l’application [0; 1[3 t ! T (t)x 2 E, est dérivable sur [0; 1[, pour tout x 2 D(A) et nous avons : d T (t)x = T (t)Ax = AT (t)x; (8)t dt Soientx 2 D(A),t k T (t + h)x h 0. 0 eth > 0. Alors : T (t) x 0. T (t) Axk 75 T (h) x x Axk, h T (h) x x M e!t k Axk. h kT (t) kk Par cons´equent : T (t + h)x !0 h lim h T (t) x = T (t) Ax, d’où : d T (t)x = T (t)Ax; 8t dt Si (t k 0. h) > 0, alors nous avons : T (t h)x T (t) x h T (t) Axk kT (t M e!(t T (h) x x Ax + Ax T (h)Axk h x h) T (h) x k Axk + kT (h)Ax Axk. h h) kk Par suite : lim h !0 T (t h)x T (t) x = T (t) Ax: h et : d T (t)x = T (t)Ax; (8)t dt 0 Il s’ensuit que l’application considérée dans l’énoncé est dérivable sur [0; 1[, 8x 2 D(A). De plus, on a l’égalité : d T (t)x = T (t)Ax = AT (t)x; (8)t dt 0: Théorème 2.3.3 (l’unicité de l’engendrement) Soient deux C0 -semi-groupes fT (t)gt et fS(t)gt S(t); (8)t 0 0 ayant pour générateur in…nitésimal le mème opérateur A. Alors : T (t) = 0. 76 Soient t > 0 et x 2 D(A). Dé…nissons l’application : [0; t] 3 s ! U (s)x = T (t s)S(s)x 2 D (A), alors d d d U (s)x = T (t s)S(s)x + T (t s) S(s)x, ds ds ds = AT (t s)S(s)x + T (t s)AS(s)x, = 0, 8x 2 D(A). Par suite U (0)x = U (t)x, pour tout x 2 D(A), d’où : T (t)x = S(t)x; (8)x 2 D(A)ett Puisque D(A) = et T (t); S(t) 2 B( ), pour tout t T (t)x = S(t)x; (8)t 0. 0, il résulte que : 0 et x 2 E, ou bien : T (t) = S(t); (8)t 2.3.3 0. Probabilité non commutative Les probabilités non commutatives ne sont qu’une abstraction directe des axiomes de Von-Neuman qui ont étés proposés sur la base de résultats empiriques observés au laboratoire. Heisenberg appelle ce genre de mathématique "phénomenologiques". On dé…nit habituellement une algèbre de Von-Neuman comme étant une algèbre d’opérateures dans un espace hilbertien, auto-adjointe et égale à son bicommutant ; ou oncore auto-adjointe, contenant l’opérateur I et fermée pour une topologie. On peut aussi caractériser intrinsèquement les algèbres de Von-Neuman de la façon suivante : une algèbres de Von-Neuman est une algèbre de Banach A, à unité, munie d’une involution 77 et véri…ant les axiomes suivants : (i) kaa k = kak2 pour tout a 2 A (on dit alors que A est une C -algèbre à unité) ; (ii) dans l’ensemble A+ des éléments positifs de A, toute famille …ltrante majorée admée une borne supérieure ; (iii) pour tout élément non nul a de A il existe une forme linéaire positive normale f sur A tq f (a) 6= 0 [normale signi…e qu’on a f (sup xn ) = sup f (xn ) pour toute famille …ltrante majorée (xn ) d’élément de A+ ]. Un espace de probabilité non commutative est la donnée d’un triplet (H; } (H) ; ) où : H est un espace de Hilbert. } (H) l’ensemble des projecteurs sur H (l’ensemble des événements de H ). un état sur } (H). Variable aléatoire, loi Dé…nition 2.3.24 Une variable aléatoire non commutative sur l’espace de probabilité non commutatif (H; } (H) ; ) est un opérateur auto-adjoint sur H . Une famille d’opérateurs sur un espace de Hilbert indexé par un ensemble T (le temps) est appelée un processus stochastique non-commutatif. Si ces opérateurs sont auto-adjoints et commutent, le processus est dit classique. Dé…nition 2.3.25 Soit E 2 } (H) (un événement), un état. La probabilité de E dans P l’état est donnée par la formule : tr E = hui ; ui i tel que : fu1 ; u2 g est une base orthonormale. Remarque 2.3.5 0 Si tr E 1 8E 2 } (H). est un état pur ( =j uihu j où u est un vécteur unitaire ) alors : tr E = hu; Eui 8E 2 } (H) : 78 Tout observable A a une résolution spectrale A = P A i Ei propres de A et EiA l’événement que A prenne la valeur i, où les i sont les valeurs alors la probabilité que A dans l’état est donc égale à tr( EiA ). P En particulier : tr( EiA ) = 1. prenne la valeur i i Dé…nition 2.3.26 La valeur moyenne de Aest donnée par la formule : tr A = X A i tr( Ei ) = tr la fonction caractéristique de Adans l’état (t) = X X A i Ei , est la fonction eit j tr EjA = tr eitA : j Exemple 5 On considère l’espace de Hilbert H = C2 avec sa base canonique e0 (1; 0) et e1 (0; 1). Une base orthonormée de 0 O (H)(l’ espace des auto-adjoint born0 1 0 opérateurs 1 1 0 i 0 1 1 0 @ A; @ A A, nés) est donnée par les matrices : I @ 2 1 i 0 1 0 0 1 0 1 1 0 @ A 3 0 1 Les matrices 1, 2, 3 sont connues en physique sous le nom de matrices de Pauli, elles servent à décrire les particules de spin. La formule hA; Bi = 12 tr (AB) dé…nit un produit scalaire sur O (H). Le produit de deux matrices de Pauli est égale à I si elles ont les mêmes indices I et vaut i j = i k i i = si les indices sont di¤érents,avec +1 si la permutation (i; j; k) est circulaire, 1 sinon. Le crochet classique de deux matrices identique est nul [ i ; 2i i] = 0 et vaut [ i ; j] = k. On rappele que le crochet de deux opérateurs A et B est dé…ni par[A; B] = AB 79 BA. 0 =j e0 ihe0 j= @ Remarque 2.3.6 Létat pur associé au vecteur e0 est 0 @ 1 0 0 0 1 A. Les matrices l’observable 1 3 et 2 prennent les valeurs +1 et prend la valeur La décomposition spectrale de La probabilité que + est 3 = + 0 1 A 1 0 1 avec mème probabilité 1 avec la probabilité 1. i 1 avec : prenne la valeur +1 dans l’état 0 @ 1 0 0 0 vaut tr( 1 A; +) + 0 @ = 1. = 1 . 2 0 0 0 1 1 A. A chaque grandeur de la probabilité classique, on fait correspondre un opérateur di¤érentiel. Il est utile de connaitre par coeur le tableau suivant probabilité classique probabilité quantique l’espace l’espace de Hilbert H projection j uihu j ! tq Im (j uihu j) = Cu F } (H) A (2 F) E : H ! H projection tr : } (H) ! [0; 1] P (A) E 7! tr E X (!) v.a. E (X) 0 E.D.O. x = f (t; x) 2.3.4 A opérateur auto-adjoint P A E (A) = tr A = i tr E i d ( ) = i [ t ; H] ; 0 = dt t Espace de Fock complexe L’espace de Fock est un espace de Hilbert utilisé en physique quantique pour décrire les états quantiques avec un nombre variable ou inconnu des particules. Mathématiquement, il modélise aussi une répétition d’expériences aléatoires en les combinant toutes 80 simultanément. L’espace de Fock se dé…nit comme l’espace de Hilbert obtenu par la somme directe des produits tensoriels des espaces de Hilbert pour une particule. Soit H un espace de Hilbert complexe, on note H n foit. H H n n =H H le produit tensoriel de H avec lui- même H est un espace de Hilbert, muni d’une application (de Gelfand) n-linéaire de H dans H H scalaire hx1 x2 n notée (x1 ; x2 ; yn i = hx1 ; y1 ihx2 ; y2 i x n ; y1 y 2 orthonormale de H, les ei1 xn ) ! (x1 xn ) avec le produit x2 hxn ; yn i. Si (ei ) est une base ein forment une base orthonormale de H ei2 exemple, si H est un espace L2 (E; ), H n naturellement donnée par f1 fn (x1 ; x2 ; f2 s’identi…e à L2 (E n ; n ) l’application ; xn ) = f1 (x1 ) f2 (x2 ) n . Par étant fn (xn ). Dé…nition 2.3.27 On appelle espace de Fock construit sur H la somme directe hilbertienne (H) = 1 n=0 H n . Rappelons que pour un système physique, l’espace de Hilbert est l’espace des états à une particule. L’espace H est l’espace H 0 n est l’espace des états à n particules. L’espace sans particule = C. L’espace de Fock est l’espace d’un nombre arbitraire de particules, éventuellement in…ni. Un élément f de suite appartient à H est une suite (fn )n2N où chaque élément de la n f = (f0 ; f1 (x1 ) ; f2 (x1 ; x2 ) ; L’élément = (1; 0; 0; ; fn (x1 ; x2 ; ; xn ) ; ). ) est appelé le vide. On le note aussi j 0i. L’espace H s’identi…e au sous-espace fermé de formé des vecteurs dont toutes les composantes sont nulles sauf la n-ième. L’espace de Fock est muni du produit scalaire hf; gi = 1 Z X fn (x1 ; x2 ; n ; xn ) gn (x1 ; x2 ; n=0 81 ; xn ) dx1 dx2 dxn . L’espace est un espace de Hilbert pour la norme k f k= scalaire. p hf; f i induite par le produit Pour h 2 H, on dé…nit le vécteur exponentiel par (h) = En utilisant le produit scalaire de H n X 1 p h n! n n . on a h (f ) ; (g)i = ehf;gi . Preuve. X 1 X 1 n n p f ; p g i, h (f ) ; (g)i = h n! n! n n X1 n n hf ; g i, = n! n X1 hf; gihf; gi hf; gi, = n! n X1 hf; gin , = n! n X hf; gin = , n! n = ehf;gi 82 Chapitre 3 Représentation probabiliste de la solution de l’équation de Schrödinger Dans ce modeste mémoire de magister, on va se contenter de donner une représentation probabiliste à la solution de l’équation de Schrödinger 1 dans un cas particulier mais important pour l’homogénéisation périodique, voir 3.11, nous allons aussi nous restreindre à la dimension un. Nous allons nous inspirer de la situation similaire d’une équation parabolique classique, i.e. sans nombres complexes. Pour cela, commençons par donner quelques resultats sur les propriétés de l’opérateur d’impultion p^. 3.1 Propriétés approfondies de l’opérateur d’impulsion Rappelons que l’opérateur d’impulsion, voir 1.3, s’exprime par p^ = i~@, 83 véri…ons rapidement que p^ est un opérateur linéaire auto-adjoint. Soient u1 , u2 deux fonctions arbitraires, Z hu1 ; p^u2 i = = +1 u1 (x) p^u2 (x) dx, 1 ih Z +1 u1 (x) @u2 (x) dx, Z +1 +1 u2 (x) @u1 (x) dx, = [ ihu1 (x) u2 (x)] 1 + ih 1 Z +1 u2 (x) ( ih) @u1 (x) dx, = 1 Z +1 = p^u1 (x) u2 (x) dx, 1 Z +1 = p^u1 (x)u2 (x) dx , 1 1 = h^ pu1 ; u2 i. (puisque u1 ( 1) = u2 ( 1) = 0) Remarque 3.1.1 On voit d’autre part que @ sans i est un opérateur linéaire mais non auto-adjoint, puisque Z +1 u1 @u2 dx = 1 Z 6= 3.1.1 Z +1 u2 @u1 dx, 1 +1 u2 @u1 dx. 1 Spectre de l’opérateur p^ On a déjà vu que le spectre de p^ était continu et il ne peut être indexé par un ensemble dénombrable ; c’est pourquoi on notera f L (x)g ses vecteurs propres où L décrit un intervalle ou une réunion d’intervalles. Supposons que propre de p^ correspond à la valeur propre L 84 L (x) soit le vecteur (on prendra pour simpli…er l’exposition, ~ = 1), on a p^ Si L (x), L0 L (x) = L L (x) . (3.1) (x) sont deux vecteurs propres de p^ correspondants à des valeurs propres di¤érentes L , L0 , alors elles sont orthogonales au sens de Dirac. En e¤et, si en note R L+ L L et L (x) = L L (x) dL (appelée di¤érentielle propre) et si les intervalles R L0 sont disjoints alors L0 (x) L (x) dx = 0. Cette formule se traduit aisément R à la limite grâce au symbole de Dirac , on a alors voir [6] p. 95, L0 (x) L (x) dx = (L L0 ). Etant donné que ces vecteurs forment un système orthogonal et complet ou total voir 2.3.1, alors nous pouvons représenter une fonction 2 L2 (R) sous la forme de R R la superposition : (x) = c (L) L (x) dL, où c (L) = (x) dx. L (x) Il est facile de résoudre l’équation 3.1, voir [6] page 103, on a où N est un nombre constant ; on prend la normalisation 3.1.2 p L (x) = N exp (i (x) = (2 ) 1=2 L x), exp (ipx). Action de l’opérateur exp (it^ p) sur des fonctions Voyons comment exp (it^ p), qui est bien dé…ni voir la remarque 2.3.4, agit sur L (x). On a le Lemme 3.1.1 On a [exp (it^ p) ] (x) = (t + x). Preuve. En e¤et, on a d exp (it^ p) dt L (x) = i exp (it^ p) p^ = i L exp (it^ p) (x) , L L (x) , et alors par une intégration élémentaire exp (it^ p) L (x) = CL exp (i L t) , où CL est une constante qu’on va déterminer par la condition initiale, exp (i0^ p) L (x), donc CL = L (x). Soit alors un L (x) = arbitraire, on a par la linéairté de notre 85 opérateur exponentiel Z [exp (it^ p) ] (x) = exp (it^ p) c (L) L (x) dL , Z = c (L) exp (it^ p) L (x) dL, Z = c (L) exp (i L t) L (x) dL, Z = c (p) exp (ipt) p (x) dp, Z = c (p) exp (ipt) (2 ) 1=2 exp (ipx) dp, Z Z 1=2 = (2 ) exp (ipt) (2 ) 1=2 exp ( ipy) (y) dy exp (ipx) dp, Z = exp (ipt) [u (p)] exp (ipx) dp, où u (p) = F (y) Z = exp [ip (t + x)] u (p) dp, = (t + x) , où F est la transformation de Fourier , voir 2.1. Donc [exp (it^ p) ] (x) = 3.2 (t + x) . (3.2) Représentation probabiliste de la solution d’équations integrodi¤érentielles paraboliques classiques 3.2.1 EDP di¤érentielle Quoique l’équation 3.15 qui concerne un poissonien, a la même forme que dans le cas continu, elle est plus compliquée, commme nous allons le voir maintenant. Il est bien connu que le mouvement brownien est un outil très utile pour étudier la solution 86 probabiliste de l’équation de la chaleur avec donnée initiale de Cauchy (u (0; x) = f (x)) on a @t u (t; x) = (1=2) @x2 u (t; x) . (3.3) On sait par le cours d’analyse (voir par exemple Piskounov tome II [26]) que u(t; x) = Z p 1= 2 t exp( (y x)2 =2t)f (y)dy; (3.4) R i.e. une convolution de f avec le noyau de la chaleur voir 2.2. En utilisant le mouvement brownien (Bt ), on peut aussi écrire par le théorème 2.1.1 u(t; x) = E x f (Bt ): Avec en plus un terme de potentiel (3.5) V , i.e. au second membre on a A = (1=2) @x2 V, on a par la formule de Feynmann-kac que, voir [29], u(t; x) = E x f (Bt ) exp( Z t V (Bs )ds) . 0 Avant de passer au discret, et pour bien faciliter notre étude, nous allons voir un cas très simple. Ensuite, on généralisera au fûr et à mesure. 3.2.2 EDP intégrale Processus de Poisson standard Le processus de Poisson (Nt )t 0 d’intensité , qui part de g à l’instant 0, à été introduit au chap 2. Nous en avons donné di¤érentes caractérisations. Le seul saut possible est k de poids 0 i.e. (dp) = 0 k (dp), où (dp) est une mesure positive tq une mesure de Dirac. Comme nous l’avons vu au Chapitre 2, (Nt )t (R) < 1 et 0 est est de Markov car c’est un processus à accroissements indépendants. Il satisfait l’équation de Fokker-Planck 87 suivante, rappelons que A son générateur est donné par Z Au (t; g) = ZR = [u (t; g + p) u (t; g)] (dp) , [u (t; g + p) u (t; g)] [u (t; g + k) u (t; g)] , 0 k (dp) , R = 0 (g 2 R) et donc l’équivalent de l’équation 3.3 est donné par @t u (t; g) = Au (t; g) , = 0 (3.6) [u (t; g + k) u (t; g)] , avec la condition initiale u (0; g) = f (g). La solution de l’équation 3.6 est inspirée de l’équation 3.5 et on remplacera le processus brownien Bt par le processus poissonien Nt . On montre que sa solution est donnée par u (t; g) = E g f (Nt ) , (3.7) u (0; g) = f (g) . En e¤et, on suppose que u admet une transformation de Fourier u~ u~ (t; x) = Fu (t; g) = (1=2 ) Z exp ( igx) u (t; g) dg R x 2 R, alors on a @t u~ (t; x) = (1=2 ) = (1=2 ) Z ZR exp ( igx) @t u (t; g) dg; exp ( igx) 0 [u (t; g + k) R = 0 (exp (ikx) 1) u~ (t; x) ; 88 u (t; g)] dg; il est clair que la solution de cette équation est u~ (t; x) = exp 0t = exp t Z eixk eixp f~ (x) , 1 (dp) f~ (x) , 1 R où f~ est la transformation de Fourier de f , cette solution est donnée comme en théorème 2.1.6, par u~ (t; x) = E [exp (ixNt )] f~ (x) , Z = exp (ixp) f~ (x) PNt (dp) , Z ZR exp (ixp) (1=2 ) exp ( i (g + p) x) f (g + p) dg PNt (dp) , = R ZR Z = (1=2 ) exp ( igx) f (g + p) PNt (dp) dg, R R où PNt (dp) la loi de Nt , est donnée par la dé…nition 2.1.14, et alors u (t; g) = Z R = = f (g + p) PNt d (p) , 1 X n=0 1 X f (g + nk) P (Nt = g + nk) , ( f (g + nk) e 0t = e 1 X ( f (g + nk) n=0 89 n , n! n=0 0t 0 t) 0 t) n! n . Processus de Poisson à deux côtés Comme indiqué plus haut. On doit sauter en temps direct non seulement vers le haut, mais aussi vers le bas. Les deux seuls sauts possibles sont donc ce cas (dp) = + k (dp) + k (dp) avec + = = 0 =2, k, +k ; on prend dans et donc le générateur A est donné par Z [u (t; g + p) u (t; g)] d (p) , Z = ( 0 =2) [u (t; g + p) u (t; g)] [( Au (t; g) = R k + k ) (dp)] , R = ( 0 =2) [u (t; g + k) + u (t; g k) 2u (t; g)] . On va d’abord partir de g à l’instant 0, alors la solution comme en 3.7 est donnée par u (t; g) = E g f (Nt ) , Z = f (g + p) PNt (dp) , = R l=1 X f (g + lk) P (Nt = g + lk) , l= 1 puisque la situation est symétrique, i.e. P (Nt = g u (t; g) = f (g) P (Nt = g) + 1 X lk) = P (Nt = g + lk), donc [f (g + lk) + f (g lk)] P (Nt = g + lk) . l=1 Voir …gure 3.8 plus bas où la direction horizontale correspond à l et la direction verticale à n et où le premier terme correspond à la verticale l = 0. Calculons P (Nt = g + lk) pour l 0. Décomposons cette probabilité suivant le nombre total de sauts dans l’intervalle [0; t] qu’on notera n. On remarque que pour tout n 90 0 la quantité P (N ([0; t] R) = n) = exp ( ( 0 t)n 0 t) n! est non nulle (la probabilité qu’il n’y ait pas de sauts avant t est égale à exp ( 0 t)) donc on peut diviser par cette quantité et utiliser des probabilités conditionnelles. Notons au passage aussi que l’événement qu’il n’y ait jamais de sauts est négligeable ; en e¤et, exp ( 0 t) tend vers zéro à l’in…ni. Pour arriver à g + lk on doit au moins sauter l fois, i.e. notre somme plus bas part en fait de n l. Calculons la loi conjointe, pour tout l 0 on a P (Nt = g + lk) = 1 X n=0 = = 1 X n=l 1 X P (Nt = g + lk; N ([0; t] R) = n) , P (Nt = g + lk; N ([0; t] R) = n) , P [Nt = g + lkjN ([0; t] R) = n] P (N ([0; t] R) = n) . n=l Il est clair qu’on peut aussi, en partant g, sauter plus de l fois quand il y a compensation de j sauts positifs et j sauts négatifs. On écrit donc Nt = l + 2j; Il est facile de voir que l’ensemble des valeurs possibles de Nt étant donné N ([0; t] n, est R) = nk; ( n + 2) k; :::; nk. Si n est impaire alors Nt ne s’annule jamais en ne prenant que des valeurs impaires. Si n est paire alors Nt peut s’annule en ne prenant que des valeurs paires. Dans les deux cas on fait des sauts de 2. On a alors besoin du résultat fondamental suivant Lemma 11 Sachant que N ([0; t] R) = n, la loi de Nt est binômiale. 91 On somme sur n variables aléatoires indépendantes et identiquement distribuées avant les deux valeurs k. Procédons par récurrence. Si on a un seul saut, il est clair qu’on part vers le haut avec la même probabilité que vers le bas, i.e. 1=2. Comme les sauts sont indépendants, le suivant, si on suppose qu’il y en a seulement deux, aura le même comportement que le précédent, i.e. encore 1=2. Et ainsi de suite. Donc, Nt = g + 1k sachant N ([0; t] R) = n est distribué selon, par la loi binômiale. On a P [Nt = g + lkjN ([0; t] R) = n] = Cnl 2 n : Le résultat bien connu suivant nous permet d’avoir des écritures symétriques pour les combinaisons en donnant un sens à des Cn l . Lemme 3.2.1 Soit n 0 et l 2 Z on a Cnl = n+l 2 n! . ! n2 l ! En reportant ces quantités plus haut on a pour le premier terme P (Nt = g) = 1 X 2j 2j ( 0 t) 2 (2j)! j=0 ! exp ( 0 t) : Par conséquent u (t; g) = f (g) P (Nt = g) + exp ( 0 t) 1 X [f (g + lk) + f (g l=1 lk)] 1 X n=l n l n ( 0 t) Cn 2 n! ! : En inversant l’ordre de la sommation, ce qui est permis puisque les nombres concernés sont positifs pour f 0 (connu en mathématiques sous le nom du théorème de Fubini) on a par le lemme 3.2.1 92 (3.8) "n l! on a u (t; x) = f (g) P (Nt = g) + 2 exp ( = f (g) P (Nt = g) + exp ( 0 t) 0 t) 1 X n=1 1 X n=1 = e 0t 1 X n=0 3.3 0t 2 n 1 n! n X n 0t 2 0t n 2 ! 1 n! 1 n! n X ! f (g + lk) Cnl , l=1 n X ! f (g + lk) Cnl , l= n f (g + lk) Cnl . l= n Représentation en p de l’équation de Schrödinger Rappelons qu’on suit les articles [14] et [15] où les manipulations suivantes ne sont pas explicitées ; peut être sont-elles établies ailleurs. On se placera dans R et on prendra dans l’équation 1, pour simpli…er l’exposition, ~ = 1, on a i@t (t; x) = (1=2m) @x2 (t; x) + V (x) (t; x), (3.9) (0; x) = f (x) , où V est un terme de potentiel périodique que nous préciserons plus bas. Notons que la solution analytique de cette équation est donnée dans Blokhintsev [6] page 230 où il est question de potentiels périodiques plus généraux. Dans ce livre on passe d’abord à la 93 représentation en p. Notre choix de potentiel est en fait un cas particulier de potentiels plus généraux de la forme V (x) = Z exp (ipx) f (p) (dp) , (3.10) R où f (p) est une fonction complexe mesurable et bornée. Cette classe de potentiel se prête bien à une interprétation probabiliste. Pour une représentation probabiliste de l’équation 3.9 il est commode de prendre (f0g) = 0. Cette conditiont n’est pas du tout restrictive parce que on peut s’assurer de sa validité en procédant à une translation par une constante appropriée. Le potentiel dans 3.9 que nous étudions correspond à f (p) = 1 et (dp) = 0 2 directe donne ( k + k ) (dp), V (x) = où les 0 sont des mesure de Dirac, et donc une intégration exp (ikx) + exp ( ikx) = 2 0 cos kx. Remplaçons V (x) par cette valeur dans 3.9, alors on a @t (t; x) = (i=2m) @x2 (t; x) i 0 cos (kx) (t; x): (3.11) Nous allons nous inspirer de Blokhintsev et donc on passe d’abord à la représentation en impulsion p dont l’opérateur associé est p^ = i@, voir 1.3. Nous devons réécrire l’opérateur, voir 1.8, au second membre de 1 dans la représentation en impulsion. Cela correspond à la transformation de Fourier suivante u (t; g) = F (t; x) = (1=2 ) Z R donc en dérivant sous le signe somme on a 94 exp ( igx) (t; x) dx, @t u (t; g) = (1=2 ) = (1=2 ) Z exp ( igx) @t (t; x) dx; ZR exp ( igx) (i=2m) @x2 (t; x) i 0 cos (kx) (t; x) dx; R on utilise une intégration par partie, on a Z igx) @x2 exp ( (t; x)dx = ig Z exp ( igx) @x (t; x)dx, RZ R g2 = exp ( igx) (t; x)dx, R donc (1=2 ) exp ( igx) @x2 (t; x)dx R Z (i=2m) g 2 (1=2 ) exp ( igx) (t; x)dx, (i=2m) = Z R = i g 2 =2m u (t; g) . D’autre par Z exp ( igx) cos (kx) (t; x) dx R = = Z ZR R exp (ikx) + exp ( ikx) (t; x) dx; 2 exp ( ix) (g + k) + exp ( ix) (g k) (t; x) dx; 2 exp ( igx) d’où 95 (1=2 ) Z exp ( igx) 0 cos (kx) (t; x) dx R Z exp ( ix) (g + k) + exp ( ix) (g 2 R = (1=2) [u (t; g + k) + u (t; g k)] , = (1=2 ) k) (t; x) dx; et donc en…n i g 2 =2m u (t; g) @t u (t; g) = i 0 2 k)] . [u (t; g + k) + u (t; g Réécrivons le 2 ème terme du second membre. On a le Lemme 3.3.1 On a V i @ @g u (t; g) = ( 0 =2) [u (t; g + k) + u (t; g k)] , où le terme du premier membre de cette égalité est une fonction d’opérateur. Par l’équation 3.2 on a exp (ik p^) u (t; g) = u (t; g + k) ; exp ( ik p^) u (t; g) = u (t; g k) et alors V i @ @g u (t; g) = ( 0 =2) [exp (ik p^) + exp ( ik p^)] u (g) , = ( 0 =2) [u (t; g + k) + u (t; g k)] . Nous avons donc trouvé que 2 ^ = g +V H 2m 96 i @ @g : (3.12) Et donc @t u (t; g) = i g 2 =2m u (t; g) iV i @ @g u (t; g) . Notons que ( 0 =2) [u (t; g + k) + u (t; g k)] = ( 0 =2) [u (t; g + k) + u (t; g k) 2u (g)] + 0 u (t; g) , 0 u (t; g) , = Au (t; g) + où Au (t; g) = ( 0 =2) [u (t; g + k) + u (t; g k) 2u (t; g)]. On reconnait ici le générateur d’un processus de Poisson à deux côtés, voir la dé…nition 2.3.23, ayant la mesure de Lévy d (p) ; c’est un constat fondamental. Donc …nalement on a i@t u (t; g) = ^ (t; g) ; Hu (3.13) g 2 =2m + = Au (t; g) + 0 u (t; g) : (3.14) Pour donner une représentation probabiliste à la solution cette équation 3.13, le complexe i exigera une grande attention. Nous allons nous inspirer des représentations probabilistes pour les EDP paraboliques classiques qui sera donné dans la section précédente. On écrit la solution probabiliste de l’équation 3.13 d’abord sans le complexe i dans le cas sans potentiel (i.e.sans [(g 2 =2m) + 0 ]), On a donc sans complexe et dans le classique u (t; g) = E g f (Nt ). voir 3.7. On devra traiter la situation liée au terme [(g 2 =2m) + 0 ] u (t; g), on a u (t; g) = E g f (Nt ) exp Z 0 97 t g 2 =2m + 0 ds . (3.15) Toute la di¢ culté est de voir comment cette formule fondamentale va changer avec l’intervention des complexes, nous serons donc potentiellement en temps imaginaire. 3.4 Représentation probabiliste de la solution de l’équation de Schrödinger Notons d’abord que si m ! 1 dans l’équation 3.13 alors on retrouve l’équivalent de l’équation de Schrödinger 3.9 sans terme de potentiel, i.e. une EDP parabolique en temps imaginaire. Ainsi le Processus de Poisson joue un rôle dual au le mouvement brownien. Pour passer de la solution l’équation de Fokker-Planck 3.15 à la solution de l’équation de Schrödinger on utilise successivement deux fonctionnelles additives, voir 2.1.7, de processus de sauts. Il est fondamental de remarquer qu’il ne su¢ t pas de calquer texto la situation classique. 3.4.1 Traitement de la première fonctionnelle additive En e¤et, notre première fonctionnelle additive, mesurable par rapport à - algèbre cylindrique G, voir la dé…nition 2.1.12, continue dans la topologie C (R) et bornée en probabilité, donnée par 1 S1 (Nt ) = 2m 1 = 2m Z t N2 i d ; 0 s Z t N 2d i 0 (t s) : s Elle donnera par 2.7, la fonction u (t; g) = E g exp (iS1 (Nt )) f (Nt ) , qui est seulement une solution de l’équation 98 @u (t; g) = 0 [u (t; g + k) + u (t; g @t 2 i 2 g u (t; g) , 2m k)] (3.16) où lim u (t; g) = f (g), sans complexe attaché au premier membre. t !0 3.4.2 Traitement de la deuxième fonctionnelle additive C’est pourquoi nous avons besoin d’une deuxième fonctionnelle additive, G-mesurable, discontinue, et bornée en probabilité, donnée par S2 (Nt ) = où, rappelons le N ([s; t] 2 N ([s; t] R) , R) est le nombre de sauts du processus de Poisson sur l’inter- valle [s; t]. Cette transformation absolument continue de la mesure de probabilité d’un processus de poisson dé…nit la transformation 0 ! i 0 dans 3.16 qui est similaire à une rotation de temps euclidienne dans le cas des processus de di¤usion. Remarque 3.4.1 La théorie classique des fonctions additives est très bien étudiée dans le cas continu et les processus de Markov correspondant sont bien dé…nis. Mais les fonctions additives discontinues posent de gros soucis dans la théorie classique markovienne. Comme nous l’avons déjà dit, la discontinuité de S2 pose des problèmes. Cependant, nous pouvons procéder à des calculs directs sur u (t; g) = E g exp (iS2 (Nt )) f (Nt ). En 99 e¤et par le théorème 2.1.1 pour X = (N (t); N (t)) on a u (t; g) = +1 X l= 1 = +1 X exp (i N ([s; t] in f (g + lk) = n i P (N ([0; t] R) = n) n=0 = +1 X R) = n] P (N ([0; t] R) = n) , f (g + lk) P [Nt = g + lkjN ([0; t] R) = n] , P [Nt = g + lkjN ([0; t] n=0 l= 1 +1 X 1 X R) =2) f (g + lk) P (Nt = g + lk) , +n X l= n ( 0 t)n X [f (g t) 0 n! l=1 +n n i 2 n exp ( n=0 lk) + f (g + lk)] Cnl , puisque exp (in =2) = [exp (i =2)]n = in , et alors u (t; g) = +1 X n=0 (i 0 t=2)n X f (g + lk) Cnl . 0 t) n! l= n +n exp ( Par conséquent, si nous reprenons les calculs précédents avec la fonction E g eiS(Nt ) f (Nt ) où S (Nt ) = S1 (Nt ) + S2 (Nt ) on trouve que cette fonction satisfait l’équation 3.13. Cette équation ainsi obtenue est l’équation de Schrödinger avec le potentiel oscillatoire V (x) = 0 cos kx qui est dans la représentation en impulsion, une superposition d’opérateurs de déplacement, en Anglais shift operator, voir le lemme 3.3.1. 3.5 D’autres représentations Il existe d’autres travaux de recherche dans lesquels on donne des représentations probabilistes à l’équation de Schrödinger. Nous devons d’abord citer des variantes de l’utilisation des processus de Poisson. Dans ces travaux, les auteurs assimilent les sauts à des interactions en énergie, voir [3], [24]. Cependant, il existe aussi des représentations à base de processus de di¤usion continues dues à Nagasawa [19]. Ce dernier utilise de manière systématique le retournement du temps et construit d’étranges di¤usions qui sont en même temps progressives et ré100 trogrades, i.e. "sentent" le futur. C’est cet aspect non classique qui permet de traiter l’équation de Schrödinger. De manière générale, le retournement du temps permet aussi de donner des représentations probabilistes à des EDP du type hyperboliques qui sont potentiellement dans la classe des équations de Schrödinger, voir [8]. Pour des EDP complexes plus générales que l’équation de Schrödinger voir [13]. 101 Bibliographie [1] M. Abd-lefdil, Mécanique quantique, Chapitre 1 : Bases de la mécanique quantique, Université Mohammed V- Agdal (2007). [2] A. Benchérif et E. Pardoux, Homogenization of a di¤usion with locally periodic coe¢ cients, Lecturs Notes in Mathematics 1857, 363-392, Springer verlag (2004). [3] J. Bertrand, B. Gaveau et G. Rideau, Poisson processes and quantum …elds theory : a model, dans quantum probability and application, Lecturs Notes in Mathematics 1136, 74-80, Springer verlag (1985). [4] M. J. Blanc et T. Simon, Eléments de calcul stochastique (2005). [5] Ph. Blanchard, Ph. Combe, W. Zeng, Mathematical and physical aspects of stochastic mechanics, Lecture Notes in Physics 281, Springer verlag (1987). [6] D. Blokhintsev, Principes de mécanique quantique, Mir Moscou (1981). [7] C. Dellacherie et P. A. Meyer, Probabilités et potentiel, vol. 3. [8] Robert. C. Dalang, C. Mueller et R. Tribe, A FeynmanKac–Type formula for the deterministic and stochastic wave equations and other PDE’s, 4681-4703, Trans. AMS (2008). [9] D. Fortier, Mécanique quantique, Animations et interprétations philosophiques (2007). [10] J. P. Fouque, Relations entre probabilités et équations aux dérivées partielles. [11] Stanley P. Gudder, Stochastic methods in quantum mechanics, New York. 102 [12] W. Heisenberg, La partie et le tout, Albin Michel (1972). [13] T. Ichinose, Path integral for a hyperbolic system of the …rst order, Duke Math. J. 51, 1-36 (1984). [14] V. N. Kolokoltsov, A new path integral representation for the solutions of the Schrödinger, heat and stochastic Schrödinger equation, 353-370 (1999). [15] A. A. Konstantinov, V. P. Maslov et A. M. Chebotarev, Probability representations of solutions of the Cauchy problem for quantum mechanical equations, 1-26. [16] P. Labastie, La physique fondamentale, mécanique quantique, (2010). [17] C. Longuemare, Limites classiques de la mécanique quantique, séminaire d’analyse, université de Caen, (2007). [18] V. P. Maslov et A. M. Chebotarev, The de…nition of Feynman’s functional integral in the p-representation, 975-976 (1976). [19] M. Nagasawa, Stochastic processes in quantum physics, Birkhauser Verlag (2000). [20] I. Nechita, Thèse de doctorat, Etats aléatoires, théorie quantique de l’information et probabilités libres, université Claude Bernard Lyon1 (2009). [21] D. Nualart, The Malliavin calculus and related Topics. Springer-verlag (1995). [22] D. Nualart et J. Vives, Anticipative calculus for the Poisson process based on the Fock space, Séminaire de probabilités (Strasbpourg), tome 24, 154-165 (1990). [23] F. Paulin, Compléments de théorie spectrale et d’analyse harmonique, Département de mathématiques d’Orsay, (2012-2013). [24] P. Pereyra et R. Quezada, Probabilistic representation formulas for the time evolution of quantum systems, J. Math. Phys. 34 (1), 59-68 (1993). [25] A. Piatnitsky, G. Allaire, Homogenization of the Schrödinger equation and e¤ective mass theorems, Com. Math. phys. 258, 1-22 (2005). [26] N. Piskounov, Calcul di¤érentiel et intégral, Mir Moscou. [27] R. Rémi, Processus de Lévy et calcul stochastique, (2010). 103 [28] P. Ruelle, Physique théorique et mathématique, Marches aléatoires, (2005-2006). [29] D. Williams, Markov processes and Martingales, vol 1 : Foundations, New York (1979). [30] H. Zwirn, Mécanique quantique et connaissance du réel, Académie des sciences morales et politiques. 104 8 9 :5 ' $ ," = .3 45) + 6 > *? ? E6 ! " # $ %& ' / - (* / 0' 1,!) ( ) * + , # :5 ' @A , ; ; 3! "/ .B ' 0' C / - E ," = > *? ? E@; ; : Résumé Dans ce mémoire on donne une représentation probabiliste à la solution d’une équation de Schrödinger dans R avec un potentiel périodique . On utilise une transformation absolument continue mais complexe de la mesure (sur l’espace des trajectoires) d’un processus de Poisson à deux sauts. On donne aussi au chapitre 1 une introduction à la mécanique quantique et au chapitre 2 une contrepartie non commutative abstraite. Une exposition d’un espace de Fock Poissonien est aussi considérée. Mots-clés: mécanique quantique, équation de Schrödinger, probabilité commutative, processus de Poisson. non Abstract In this thesis a probabilistic representation for the solution of a Schrödinger equation with periodic potential is given. We use an absolutely continus transformation of the law (on the space of trajectories ) of a Poissonian processes with 2 equal jumps of opposite values. For completeness, we also give in chapter 1 an introduction to quantum mechanics and in chapter 2 an abstract non commutative counterpart. An exposition of a Poissonian Fock space is also considered. Key-words: quantum mechanic, probability, Poissonian processes. Schrödinger equation, non commutative