Modèles aléatoires en Ecologie et Evolution Sylvie Méléard 1 1. [email protected] 2 Sylvie Méléard, Ecole Polytechnique MODELES ALEATOIRES EN ECOLOGIE ET EVOLUTION Table des matières 1 Introduction 1.1 Introduction du cours . . . . . . . . . . . . . . . . 1.2 Importance de la modélisation . . . . . . . . . . . 1.3 Modélisation mathématique et Ecologie . . . . . . 1.3.1 Ecologie et Evolution . . . . . . . . . . . . 1.3.2 Dispersion et colonisation . . . . . . . . . 1.3.3 Dynamique des populations . . . . . . . . 1.3.4 Génétique des populations . . . . . . . . . 1.3.5 Modélisation mathématique et biodiversité . . . . . . . . 7 8 9 11 11 11 12 12 13 2 Populations spatiales 2.1 Marches aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.1 Propriété de Markov et structure de la chaîne de Markov . . . . . . 2.1.2 Temps de passage, récurrence et transience . . . . . . . . . . . . . . 2.1.3 Loi du premier temps de retour en 0 d’une marche aléatoire simple 2.1.4 Théorèmes ergodiques . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.5 Barrières absorbantes . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.6 Barrières réfléchissantes . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Mouvement brownien et diffusions . . . . . . . . . . . . . . . . . . . . . . . 2.2.1 Le mouvement brownien . . . . . . . . . . . . . . . . . . . . . . . . 2.2.2 Convergence vers le mouvement brownien . . . . . . . . . . . . . . 2.2.3 Quelques propriétés du mouvement brownien . . . . . . . . . . . . . 2.2.4 Propriété de Markov et mouvement brownien . . . . . . . . . . . . 2.3 Martingales et temps d’arrêt . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.1 Martingales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.2 Inégalités fondamentales . . . . . . . . . . . . . . . . . . . . . . . . 2.3.3 Le comportement d’une martingale à l’infini . . . . . . . . . . . . . 15 16 17 22 24 27 33 36 37 38 40 45 50 53 53 54 55 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 TABLE DES MATIÈRES 2.4 2.5 2.6 2.3.4 Le théorème d’arrêt . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 2.3.5 Applications au mouvement brownien . . . . . . . . . . . . . . . . . 60 2.3.6 Applications aux temps d’atteinte de barrières . . . . . . . . . . . . 64 Intégrales stochastiques et EDS . . . . . . . . . . . . . . . . . . . . . . . . 66 2.4.1 Intégrales stochastiques . . . . . . . . . . . . . . . . . . . . . . . . . 67 2.4.2 Equations différentielles stochastiques (EDS) . . . . . . . . . . . . . 72 Propriété de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 2.5.1 Exemples d’équations différentielles stochastiques en biologie et écologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 2.5.2 Formule d’Itô . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 2.5.3 Générateur - Lien avec les équations aux dérivées partielles . . . . . 81 2.5.4 Applications aux temps d’atteinte de barrières . . . . . . . . . . . . 83 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 3 Dynamique des populations 3.1 3.2 3.3 3.4 3.5 91 Processus de population en temps discret . . . . . . . . . . . . . . . . . . . 92 3.1.1 Chaînes de Markov de vie et de mort . . . . . . . . . . . . . . . . . 92 3.1.2 Le processus de Bienaymé-Galton-Watson . . . . . . . . . . . . . . 95 3.1.3 Chaîne de Bienaymé-Galton-Watson avec immigration . . . . . . . 109 3.1.4 Le processus de BGW multi-type . . . . . . . . . . . . . . . . . . . 112 3.1.5 Les probabilités quasi-stationnaires . . . . . . . . . . . . . . . . . . 119 3.1.6 Les chaînes densité-dépendantes . . . . . . . . . . . . . . . . . . . . 128 Processus markoviens de saut en temps continu . . . . . . . . . . . . . . . 130 3.2.1 Définition et premières propriétés . . . . . . . . . . . . . . . . . . . 130 3.2.2 Un prototype : le processus de Poisson . . . . . . . . . . . . . . . . 133 3.2.3 Générateur d’un processus markovien de saut . . . . . . . . . . . . 141 Processus de branchement et de naissance et mort . . . . . . . . . . . . . . 148 3.3.1 Processus de branchement en temps continu . . . . . . . . . . . . . 148 3.3.2 Processus de naissance et mort . . . . . . . . . . . . . . . . . . . . 156 Approximations continues . . . . . . . . . . . . . . . . . . . . . . . . . . . 164 3.4.1 Approximations déterministes - Equations malthusienne et logistique164 3.4.2 Approximation stochastique - Stochasticité démographique, Equation de Feller . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168 3.4.3 Les modèles proie-prédateur, systèmes de Lotka-Volterra . . . . . . 170 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172 TABLE DES MATIÈRES 5 4 Génétique des populations 191 4.1 Quelques termes de vocabulaire . . . . . . . . . . . . . . . . . . . . . . . . 191 4.2 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191 4.2.1 Un modèle idéalisé de population infinie : le modèle de HardyWeinberg . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192 4.3 Population finie : le modèle de Wright-Fisher . . . . . . . . . . . . . . . . . 193 4.3.1 Modèle de Wright-Fisher . . . . . . . . . . . . . . . . . . . . . . . . 193 4.3.2 Modèle de Wright-Fisher avec mutation . . . . . . . . . . . . . . . . 199 4.3.3 Modèle de Wright-Fisher avec sélection . . . . . . . . . . . . . . . . 199 4.4 Modèles démographiques de diffusion . . . . . . . . . . . . . . . . . . . . . 200 4.4.1 Diffusion de Fisher-Wright . . . . . . . . . . . . . . . . . . . . . . . 200 4.4.2 Diffusion de Fisher-Wright avec mutation et sélection . . . . . . . . 202 4.4.3 Autre changement d’échelle de temps . . . . . . . . . . . . . . . . . 204 4.5 La coalescence : description des généalogies . . . . . . . . . . . . . . . . . . 205 4.5.1 Asymptotique quand N tend vers l’infini : le coalescent de Kingman 205 4.5.2 Mutation sur le coalescent . . . . . . . . . . . . . . . . . . . . . . . 211 4.5.3 Le coalescent avec mutation . . . . . . . . . . . . . . . . . . . . . . 213 4.5.4 Urne de Hoppe, restaurant chinois et modèle de Hubbell . . . . . . 214 4.5.5 Loi du nombre d’allèles distincts, formule d’Ewens . . . . . . . . . . 215 4.5.6 Le point de vue processus de branchement avec immigration . . . . 219 .1 Le théorème de Perron-Frobenius . . . . . . . . . . . . . . . . . . . . . . . 220 6 TABLE DES MATIÈRES Chapitre 1 Introduction After years, I have deeply regretted that I did not proceed far enough at least to understand something of the great leading principles of mathematics : for men thus endowed seem to have an extra-sense. (Darwin, Autobiography). 7 8 1.1 CHAPITRE 1. INTRODUCTION Introduction du cours People who have mathematical computation and statistical skills, and establish a collaboration and work on real biological problems, have the chance of doing some very, very significant things for human welfare. (Jaroslav Stark, Imperial College -Science, 2004) La biologie va d’études très microscopiques, comme la recherche de séquences sur un brin d’ADN, l’étude des échanges moléculaires dans une cellule, l’évolution de tumeurs cancéreuses, l’invasion de parasites dans une cellule, à des problèmes beaucoup plus macroscopiques concernant des comportements de grands groupes d’individus et leurs interactions (extinction de populations, équilibre des éco-systèmes, invasion d’une population par une autre, équilibre proies-prédateurs, meta-populations), ou des problèmes de génétique de populations (recherche d’ancêtres communs à plusieurs individus dans une espèce, phylogénies). A tous les niveaux, l’aléatoire intervient, et certains modèles peuvent aussi bien servir à décrire des problèmes de biologie posés au niveau d’individus microscopiques que de populations macroscopiques. Le but de ce livre est de montrer l’importance des modèles aléatoires dans la compréhension de la biologie des populations : déplacement de cellules, croissance des bactéries, développement d’une population, réplication de l’ADN, évolution des espèces. L’idée de base est la suivante : même si la population semble présenter un certain nombre de caractéristiques déterministes, elle est composée d’individus dont le comportement est fondamentalement aléatoire et soumis à une grande variabilité. Ainsi, chaque individu se déplace dans une direction différente, chaque bactérie a son propre mécanisme de division cellulaire, chaque réplication de l’ADN peut engendrer une mutation. Cette variabilité individuelle est une idée fondamentale de la biologie évolutive et en particulier de Darwin. Pour pouvoir décrire et comprendre comment la population évolue au cours du temps, il faut prendre en compte le comportement de chaque individu. La démarche du probabiliste consiste à déduire du comportement de l’individu ou de la cellule ou de la bactérie, des résultats concernant toute la population. Cela permet ainsi, à partir d’une description microscopique précise d’en déduire des comportements macroscopiques de manière rigoureuse, qu’ils soient déterministes ou aléatoires. Ce cours va consister à étudier la dynamique de certaines populations au cours du temps. L’hypothèse fondamentale des modèles introduits est que la population a un comportement markovien : son comportement aléatoire dans le futur ne dépendra de son passé que par l’information que donne son état présent. Cette hypothèse est largement admise par les biologistes, même si c’est une approximation de la réalité. La population est décrite par un processus stochastique qui décrit l’évolution aléatoire de chaque individu au cours du temps. Le temps peut être discret (n ∈ N). Il pourra par exemple décrire la succession des différentes générations ou des reproductions périodiques, saisonnières ou annuelles. Les outils probabilistes de base seront alors les chaînes de Markov à temps discret. Trois modèles classiques illustreront ce propos : les marches aléatoires 1.2. IMPORTANCE DE LA MODÉLISATION 9 pour décrire les déplacements spatiaux d’un individu, les processus de Bienaymé-GaltonWatson qui décrivent la dynamique d’une population, le modèle de Wright-Fisher qui décrit une généalogie. Mais le temps peut aussi être le temps physique, un temps t ∈ R+ qui évolue continûment. Nous serons alors amenés à considérer des processus en temps continu, à savoir des familles de variables aléatoires indexées par le temps continu. Les processus décrivant les comportements individuels seront alors, soit des processus continus du temps modélisant par exemple le mouvement spatial et desordonné de petits organismes, dont le prototype est le mouvement brownien, soit des processus discontinus décrivant les naissances et morts d’individus, tels le processus de Poisson ou les processus de branchement ou de naissance et mort en temps continu, que nous étudierons en détail. Nous développerons en particulier les outils du calcul stochastique et la notion d’équation différentielle stochastique. Quand la taille de la population est très grande, il devient difficile de décrire le comportement microscopique de la population, en prenant en compte chaque naissance ou mort d’individu. Nous changerons alors d’échelle de taille de la population et d’échelle de temps, pour nous ramener à des approximations plus facilement manipulables mathématiquement, sur lesquelles nous pourrons développer résultats théoriques et calculs. Dans certaines échelles, nous obtiendrons des approximations déterministes, qui ont été historiquement les premières introduites pour décrire les dynamiques de population. Dans d’autres échelles nous obtiendrons des approximations aléatoires définies comme solutions de certaines équations différentielles stochastiques appelées équations de Feller dans le cas de la dynamique des populations ou équations de Wright-Fisher dans le cas de la génétique des populations. Des calculs sur ces processus permettront d’en déduire un certain nombre d’informations sur le comportement des populations. Nous définirons également, à partir du modèle de Wright-Fisher, le coalescent de Kingman, qui est devenu, dans ces dernières années, fondamental pour la modélisation des généalogies, en génétique des populations. Le cours sera développé autour de trois types de modèles fondamentaux qui seront liés à trois problématiques différentes concernant les populations : les déplacements spatiaux, la dynamique des populations, la génétique des populations. 1.2 Importance de la modélisation Notre but est d’essayer de comprendre, en utilisant un modèle mathématique, l’évolution temporelle, ou “dynamique”, d’un phénomène biologique. Pour pouvoir mettre en évidence ce phénomène, nous serons obligés de simplifier le système biologique pour obtenir un modèle plus facile à étudier mathématiquement. Une difficulté de cette démarche est donc d’obtenir un bon compromis entre le réalisme biologique du modèle et la faisabilité des calculs. L’existence d’un modèle mathématique permet de pouvoir quantifier numériquement certains phénomènes et de pouvoir prédire certains comportements : par exemple, montrer 10 CHAPITRE 1. INTRODUCTION qu’une certaine population va s’éteindre et calculer l’espérance du temps d’extinction ou savoir comment elle va envahir l’espace. Evidemment, Il est important de se poser la question de la justification du modèle. Une étape ultérieure, dans le cas où il est possible d’obtenir des données observées pour le phénomène qui nous intéresse, est de construire des tests statistiques, qui permettront, ou non, de valider le modèle. Nous n’aborderons pas cette question dans cet ouvrage. L’intérêt d’un modèle réside dans son “universalité”. Par exemple, nous verrons que des problèmes biologiques très différents (par exemple par les échelles de taille : gènes - cellules - bactéries - individus - colonies) peuvent avoir des comportements aléatoires de même type et être étudiés par des modèles analogues. Typiquement, introduisons le modèle de naissance et mort le plus simple. Nous définissons Xn = taille de la population à la génération (ou instant) n, qui évolue de la manière suivante. A chaque instant n, un individu apparaît ou meurt de manière indépendante de ce qui s’est passé précédemment, et indépendamment de ses congénères, avec probabilité 21 . Le nombre initial d’individus est X0 . Ainsi, Xn = X 0 + n X Zi , i=1 où les variables aléatoires (Zi )i sont indépendantes et de même loi 1 P(Zi = 1) = P(Zi = −1) = . 2 Bien-sûr, comme Xn décrit la taille d’une population et que sans individu, il n’y a pas de reproduction possible (sans immigration), le processus s’arrête quand Xn atteint 0. Considérons maintenant le modèle de déplacement spatial le plus simple. Un kangourou se déplace sur une route en sautant par sauts de 1 mètre, aléatoirement et indifféremment en avant ou en arrière, à chaque unité de temps, et sa position initiale est X0 . La position Xn du kangourou au temps n sera alors donnée par Xn = X0 + n X Zi , i=1 où les variables aléatoires (Zi )i sont définies comme ci-dessus. Bien-sûr, ici, il n’y a aucune raison de supposer que le processus s’arrête quand Xn = 0. Le kangourou peut en fait repasser une infinité de fois par 0. D’un point de vue probabiliste, les modèles qui décrivent ces deux phénomènes bien distincts sont très proches. Nous retrouverons une telle analogie plusieurs fois dans la suite du livre. 1.3. MODÉLISATION MATHÉMATIQUE ET ECOLOGIE 1.3 11 Modélisation mathématique et Ecologie A vital next step will be to promote the training of scientists with expertise in both mathematics and biology. (Science 2003). Notre but est d’étudier les modèles probabilistes de base qui apparaissent en écologie, en dynamique des populations, et en génétique des populations. Tous ces problèmes contribuent à l’étude des écosystèmes et de l’évolution. 1.3.1 Ecologie et Evolution L’écologie est l’étude des interactions entre les êtres vivants (animaux, végétaux, microorganismes, ...) et avec le milieu qui les entoure et dont ils font eux-mêmes partie, comme par exemple leur habitat et l’environnement. L’écologie étudie en particulier la hiérarchie complexe des écosystèmes, les mécanismes biologiques associés à l’extinction des espèces, la dynamique de la biodiversité, l’adaptation des populations. À son développement contribuent les disciplines plus spécialisées de la dynamique et de la génétique des populations. La dynamique des populations a depuis longtemps fait l’objet de modélisations mathématiques. Les premières études quantitatives de populations sont dues au Révérend Thomas Robert Malthus (1798). Dans son modèle, la croissance de la population est géométrique et celle des ressources est arithmétique. Cette idée nouvelle qui consiste à dire que la croissance est liée à la limitation des ressources, prend toute sa force dans la théorie développée par Darwin. Celui-ci défend (en 1859) l’idée fondamentale de sélection naturelle et d’évolution pour les espèces vivantes. On appelle évolution, en biologie, la modification des espèces vivantes au cours du temps. Elle est fondée sur l’idée simple que les individus les mieux adaptés à leur environnement sont sélectionnés et ont les descendances les plus importantes. L’adaptation découle d’une part des mutations dans les mécanismes de la reproduction, qui créent de la variabilité dans les caractéristiques des individus, et d’autre part des interactions entre les individus et leur environnement. Les interactions peuvent être de multiples formes. On peut citer la compétition des individus d’une espèce pour le partage des ressources, les liens dans un réseau trophique (chaîne alimentaire) comme par exemple les systèmes proie-prédateur ou les liens entre hôtes et parasites, la lutte des femelles pour les mâles. L’idée de variabilité individuelle est à la base de la modélisation probabiliste. 1.3.2 Dispersion et colonisation Dans ce cours, nous allons nous intéresser tout d’abord aux processus probabilistes pouvant modéliser les dynamiques spatiales des populations. Ces processus modélisent la manière dont les individus se déplacent ou dispersent leur progéniture. Les modèles utilisés seront communs pour différentes échelles biologiques, par exemple celle des virus, des poissons ou des mammifères. La structuration spatiale de la population est le résultat des 12 CHAPITRE 1. INTRODUCTION comportements individuels de dispersion. Elle induit par exemple en écologie des questions sur la colonisation d’un espace par une population (invasion de territoires), l’atteinte de certaines barrières (points de capture, points d’eau, bords d’un domaine), les effets de la migration sur la conservation de la biodiversité. Le chapitre 2 nous permettra de nous familiariser à certains modèles markoviens, essentiellement en temps continu, qui seront également développés dans les chapitres ultérieurs. 1.3.3 Dynamique des populations La dynamique des populations étudie la répartition et le développement quantitatif de populations d’individus, asexués ou sexués. Elle s’intéresse aux mécanismes d’auto-régulation des populations, au problème de l’extinction d’une population ou à l’existence d’un éventuel état stationnaire ou quasi-stationnaire. Elle étudie également les interactions entre diverses espèces, comme les liens de prédation entre proies et prédateurs ou plus généralement la structuration des réseaux trophiques ou les modèles de coopération ou (et) de compétition. Les modèles de populations non structurées que nous allons voir dans le chapitre 3 ont l’avantage de la simplicité, mais sont bien sûr très naïfs pour rendre compte de la diversité biologique. Nous n’aborderons que légèrement le cas de populations multi-types. Pour rendre ces modèles un peu plus réalistes, il faudrait détailler les variabilités individuelles, comme la position spatiale, l’âge, le sexe, les caractères phénotypiques ou génotypiques. Mais les modèles sont alors beaucoup plus compliqués et les outils mathématiques deviennent essentiellement des objets de dimension infinie (processus à valeurs mesures ou équations aux dérivées partielles), ce qui dépasse largement le cadre de notre propos. 1.3.4 Génétique des populations Pour comprendre l’évolution des espèces, il faut pouvoir comprendre les mécanismes internes des généalogies à l’intérieur d’une espèce. C’est l’un des buts de la génétique des populations, qui constitue l’approche mathématique la plus ancienne de modélisation de l’évolution. Elle a pris son essor à partir des travaux de Mendel (1822-1884), communément reconnu comme le père fondateur de la génétique. Il est à l’origine de règles de retransmission génétique, appelées lois de Mendel, qui définissent la manière dont les gènes se transmettent de génération en génération. La génétique des populations est l’étude de la fluctuation des allèles (les différentes versions d’un gène) au cours du temps dans les populations d’individus d’une même espèce, sous l’influence de la dérive génétique (la variabilité due à l’aléa des événements individuels de naissance et de mort), des mutations, de la sélection naturelle et des migrations. Elle a été initiée par les biologistes Fisher, Haldane et Wright entre 1920 et 1940. Elle se développe à partir des principes fondamentaux de la génétique mendélienne et de la théorie darwinienne de l’évolution et a de grandes applications en Biologie. 1.3. MODÉLISATION MATHÉMATIQUE ET ECOLOGIE 13 Dans le chapitre 4, nous allons développer les outils de base de génétique des populations, qui décrivent la dynamique au cours du temps de l’information génétique des individus en supposant que la taille de la population observée reste constante. Cela revient à nous placer d’emblée dans un état stationnaire du point de vue de la dynamique des populations. Nous aurons également le point de vue inverse : reconstruire les lignées généalogiques d’un groupe d’individus observés, en remontant dans le temps l’histoire de ces individus. 1.3.5 Modélisation mathématique et biodiversité Bien-sûr, le but ultime est de modéliser la dynamique des individus en prenant en compte l’information génétique qu’ils contiennent et les interactions qu’ils développent et de pouvoir répondre aux questions suivantes : • Comment la structuration génétique des populations influe-t-elle sur leur dynamique et leur évolution ? • Comment les interactions écologiques produisent-elles la sélection des gènes ? Ces questions sont au coeur de la recherche fondamentale qui se développe aujourd’hui entre mathématiques appliquées et modélisation de la biodiversité. 14 CHAPITRE 1. INTRODUCTION Chapitre 2 Populations spatiales The mathematics is not there till we put it there. Sir Arthur Eddington (1882 - 1944), The Philosophy of Physical Science. Dans ce chapitre, nous cherchons à modéliser la dynamique spatiale d’une population, c’est à dire l’évolution de sa répartition spatiale au cours du temps. Cette structuration est le résultat de comportements individuels de déplacement, comme par exemple la dispersion au moment de la reproduction des descendants d’un individu (pollen, oeufs, graines), la progression des déplacements d’un troupeau, le développement d’une épidémie. La dispersion des individus d’une population peut être due à la recherche de nourriture, à la nécessité de trouver un partenaire, à la fuite devant un prédateur ou à la nécessité de coloniser des zones propices à la survie ou à la reproduction. Les problèmes de colonisation de nouveaux territoires, d’invasion et de structure spatiale de la biodiversité sont fondamentaux en écologie et se situent à différents niveaux de populations : individus, espèces, communautés. Ils sont affectés par la fragmentation croissante des habitats et par le réchauffement climatique et sont au coeur des questions environnementales. Les exemples les plus populaires sont les colonisations d’espèces invasives. On peut citer par exemple les études faites sur la progression des lapins en Europe centrale, l’invasion du cerf-rouge en Nouvelle-Zélande (voir Renshaw [38]), la vitesse d’invasion surprenante des crapauds-buffles en Australie (voir [36]). Le phénomène de dispersion spatiale devrait être étudié conjointement avec l’évolution démographique de la population, mais cela nécessiterait l’introduction d’objets mathématiques trop complexes. Nous allons nous limiter dans ce chapitres à l’étude de la modélisation spatiale et développerons l’étude des modèles démographiques dans les chapitres suivants. Toutefois, les outils probabilistes que nous allons introduire par cette motivation sont des outils fondamentaux pour la modélisation aléatoire, que l’on retrouvera ultérieurement. Nous allons dans ce premier chapitre étudier le déplacement spatial d’un individu évoluant 15 16 CHAPITRE 2. POPULATIONS SPATIALES dans un espace discret du type Z, Z2 ou Z3 , dans un espace continu du type R, R2 ou R3 , ou dans un sous-domaine de ces espaces. Le choix de la dimension est dû à la nature de l’espace d’états. On choisira la dimension un pour un déplacement le long d’une route, d’une rivière, du littoral, d’un brin d’herbe ou d’un brin d’ADN, ou bien la projection sur une dimension d’un déplacement dans l’espace (l’altitude par exemple). La dimension deux correspondra à un déplacement sur le sol, une paroi, un fond marin ou à la projection sur un plan d’un déplacement en trois dimensions. Soit à cause de frontières naturelles (mer, chaîne de montagne), ou de limitation de la zone de ressources, les populations se déplacent souvent dans des domaines fermés et le comportement au bord du domaine est important. Le bord du domaine est dit absorbant si les animaux meurent ou restent bloqués à son contact, (un poisson capturé au bord d’un bassin). Il est dit réfléchissant si l’individu rebrousse chemin à son contact, (le poisson au bord de l’aquarium). Nous ne tiendrons pas compte ici de la reproduction (naissances et morts), mais nous ferons toutefois, à plusieurs occasions, allusion à l’analogie, développée dans l’introduction, entre les processus décrivant la position spatiale en dimension un et ceux décrivant la taille d’une population. 2.1 Marches aléatoires Dans ce chapitre nous rappellerons les propriétés principales des marches aléatoires et des chaînes de Markov à temps discret, en privilégiant des problématiques propres aux modèles de populations. Pour plus de détails, nous renvoyons aux ouvrages suivants, [5], [16], [35] et [42]. Le modèle aléatoire le plus simple pour décrire le déplacement au hasard d’un individu est celui d’une marche aléatoire sur le réseau Zd . Le temps est discret. L’individu, à partir d’un point x = (x1 , . . . , xd ) peut aller vers un autre point du réseau avec une certaine probabilité. Les déplacements successifs de l’individu sont indépendants les uns des autres. Plus précisément, on note Xn la position de l’individu à l’instant n, et Zn = Xn − Xn−1 son n-ième déplacement. Définition 2.1.1 La suite de variables aléatoires (Xn )n∈N est appelée marche aléatoire sur le réseau Zd si Xn = X 0 + n X Zi , i=1 et les déplacements successifs Zn ∈ Zd sont indépendants et de même loi. Si chaque déplacement ne peut se faire que vers un de ses proches voisins, la marche aléatoire est dite simple. Si de plus les déplacements vers chacun des voisins immédiats se font avec la 1 , la marche est dite symétrique. même probabilité 2d 2.1. MARCHES ALÉATOIRES 17 Les figures 2.1, 2.2 et 2.4 (Paragraphe 2.2.2) montrent des simulations des marches aléatoires simples symétriques en dimension 1 et 2. Dans le premier cas, la marche peut avancer ou reculer d’une amplitude 1 avec probabilité 12 . Dans le deuxième cas, l’individu pourra sauter vers un de ses voisins immédiats avec probabilité uniforme 14 . Remarque 2.1.2 Dans le cadre de cet ouvrage, nous allons essentiellement nous limiter aux marches aléatoires en dimension un qui, comme nous l’avons vu dans l’introduction, décrivent non seulement des déplacements spatiaux, mais aussi des dynamiques de tailles de population. Dans la suite de ce chapitre, l’espace d’état considéré sera Z. Exemple 2.1.3 Nous allons prendre comme exemple type le déplacement vertical d’une particule de plancton. Si nous considérons sa position à des temps discrets, nous pouvons supposer que cette particule se déplace verticalement comme une marche aléatoire unidimensionnelle. Par exemple, nous étudions le déplacement vertical du plancton dans l’océan Atlantique, où la profondeur moyenne est d’environ 3300 m. Cette profondeur est suffisamment grande par rapport à la taille de la cellule pour que le déplacement de celle-ci soit considéré comme possible sur tout Z. Le point 0 pourra alors être pris à la moitié, à 1650 m de profondeur. 2.1.1 Propriété de Markov et structure de la chaîne de Markov Les marches aléatoires introduites ci-dessus sont un cas particulier simple de chaînes de Markov. La propriété de Markov décrit une propriété satisfaite par de nombreux phénomènes aléatoires, pour lesquels l’évolution aléatoire future ne dépend du passé qu’à travers l’état du processus au temps présent. Dans la suite du cours, nous verrons un grand nombre de processus vérifiant la propriété de Markov. Définition 2.1.4 Une suite de variables aléatoires (Xn )n∈N à valeurs dans Z satisfait la propriété de Markov si pour tous n ∈ N, j, i0 , . . . , in ∈ Z, tels que P(Xn = in , . . . , X0 = i0 ) > 0, on a P(Xn+1 = j|Xn = in , . . . , X0 = i0 ) = P(Xn+1 = j|Xn = in ). (2.1) La loi conditionnelle de Xn+1 sachant X0 , . . . , Xn , est égale à sa loi conditionnelle sachant Xn . Si cette loi ne dépend pas de n, on dit que la chaîne de Markov est homogène (en temps). La loi d’une chaîne de Markov homogène est caractérisée par ses probabilités de transition Pi,j = P(X1 = j|X0 = i) i, j ∈ Z. Remarquons qu’alors, P( X0 = i0 , . . . , Xn = in ) = P( X0 = i0 ) Pi0 ,i1 . . . Pin−1 ,in . 18 CHAPITRE 2. POPULATIONS SPATIALES On note Pi la loi de la chaîne de Markov issue de l’état i. Ainsi pour tout événement A, Pi (A) = P(A|X0 = i). Introduisons la suite des tribus Fn = σ(X0 , . . . , Xn ) engendrées par la chaîne (Xn )n . Les ensembles de la tribu Fn sont de la forme {(X0 , X1 , · · · , Xn ) = (i0 , · · · , in )} pour tout i0 , · · · , in . Ainsi, F n décrit l’information donnée par le processus jusqu’à l’instant n. Les tribus Fn sont croissantes (pour l’inclusion) comme l’information qui croît au cours du temps. La suite (F n )n s’appelle la filtration engendrée par la chaîne de Markov (Xn )n . Remarque 2.1.5 La suite (Xn )n satisfait la propriété de Markov si et seulement si pour toute fonction f bornée sur Z, et pour tout entier naturel n, on a E(f (Xn+1 )|Fn ) = E(f (Xn+1 )|Xn ). En effet, il suffit de vérifier que pour tout i0 , · · · , in , X E(f (Xn+1 )|(X0 , · · · , Xn ) = (i0 , · · · , in )) = f (j) P(Xn+1 = j|(X0 , · · · , Xn ) = (i0 , · · · , in )) j = X f (j) P(Xn+1 = j|Xn = in ) = E(f (Xn+1 )|Xn = in ). j Exemple 2.1.6 1) Marche aléatoire simple dans Z. Les déplacements Zn sont indépendants et équidistribués de loi chargeant {−1, 1} avec probabilités respectives q = 1 − p et p. (Voir Figure 2.1). La marche aléatoire simple est une chaîne de Markov homogène de matrice de transition (Pi,j ) vérifiant Pi,i+1 = p ; Pi,i−1 = 1 − p = q ; Pi,j = 0 si j 6= i + 1, i − 1. Si p = 12 , la marche aléatoire est symétrique. 2) Modèle de dynamique des ressources. A chaque instant n ≥ 0, une quantité R de ressources est créée et une quantité aléatoire Zn en est consommée par un certain groupe d’individus. On suppose que les variables aléatoires (Zn )n sont indépendantes et de même loi à valeurs entières et l’on note pk = P(Z1 = k) pour tout entier k. Si l’on note par Xn le niveau des ressources à l’instant n, on obtient la dynamique suivante : Xn = (Xn−1 + R − Zn )+ pour tout n ≥ 1. La suite (Xn )n forme alors une chaîne de Markov homogène de matrice de transition (Pij ) vérifiant X Pi,0 = P(Zn ≥ i + R) = pk ; Pi,j = P(i + R − Zn = j) = pR+i−j pour tous i, j ∈ N, j ≥ 1. k≥i+R 2.1. MARCHES ALÉATOIRES 19 3 Processus de branchement. Ces modèles ont été introduits pour modéliser les générations successives d’une population. Ils seront développés au Chapitre 3.1.2. Désignons par Xn la taille d’une population à l’instant n. Notons par Yin la variable aléatoire à valeurs entières représentant le nombre de descendants de chaque individu i ≤ Xn au temps n. La dynamique de la taille de la population est ainsi décrite pour n ≥ 0 par Xn+1 = n X Yin , i=1 où la somme est nulle sur {Xn = 0}. On suppose de plus que toutes les variables aléatoires Yin sont indépendantes et de de même loi. La suite (Xn )n forme alors une chaîne de Markov homogène de matrice de transition (Pi,j ) vérifiant ! i X P0,0 = 1 ; Pi,j = P Yk0 = j pour tous i, j ∈ N, i ≥ 1. k=1 Dans cette exemple, la matrice de transition est difficile à utiliser et nous verrons au Chapitre 3.1.2 que la bonne approche est d’étudier la fonction génératrice de Xn . 4) Processus de naissance et mort. Voici un autre modèle markovien de taille de population indexé par un temps discret. Désignons comme précédemment par Xn la taille d’une population à l’instant n. A chaque instant n, un unique individu peut naître ou mourir. Ses probabilités de naissance et mort dépendent de la taille de la population à cet instant. Ainsi, conditionnellement à {Xn = i}, les probabilités de naissance et mort seront respectivement bi et di . Nous supposerons que b0 = d0 = 0 et que di > 0 pour i ≥ 1. Le processus prend ses valeurs dans N sauf si l’on impose une contrainte sur la taille de la population, par exemple que celle-ci ne puisse pas dépasser le seuil N . Dans ce cas nous allons supposer également que bN = 0. Cette contrainte peut-être une manière de modéliser une compétition des individus pour le partage des ressources : si il y a trop d’individus, ceux-ci utilisent la totalité des ressources pour survivre et n’ont plus les moyens énergétiques pour se reproduire. Les probabilités de transition seront alors égales à Pi,i+1 = bi ; Pi,i−1 = di ; Pi,i = 1 − bi − di ; Pi,j = 0 si i ≥ 1, j 6= i + 1, i − 1, i. De plus, P0,0 = 1, P0,j = 0 pour j 6= 0 et dans le cas d’une population de taille au plus N , on a également que PN,N +1 = bN = 0. Revenons à la situation générale où nous considérons de nouveau une chaîne de Markov homogène quelconque. Les probabilités de transition (Pi,j )i,j∈N définissent une matrice, appelée matrice de transition, à coefficients positifs et dont la somme de chaque ligne est égale à 1 : pour tous i, j, X Pi,j ≥ 0 ; Pi,j = 1. j∈N 20 CHAPITRE 2. POPULATIONS SPATIALES (n) Notons par (Pi,j ) la matrice définie par (n) Pi,j = P(Xn = j | X0 = i). (2.2) Proposition 2.1.7 La matrice P (n) est égale au produit de matrices P × · · · × P , n fois. Preuve. Montrons cette relation par récurrence en supposant que la propriété (2.2) est vraie au temps n − 1. Nous avons (n) Pi,j = P(Xn = j | X0 = i) = ∞ X P(Xn = j , Xn−1 = k | X0 = i) k=1 = ∞ X P(Xn = j | Xn−1 = k , X0 = i) P(Xn−1 = k | X0 = i) k=1 = ∞ X P(Xn = j | Xn−1 = k) P(Xn−1 = k | X0 = i) par la propriété de Markov k=1 = = ∞ X (n−1) Pk,j Pi,k par la propriété de récurrence k=1 (n) Pi,j . Les relations entre les états de la chaîne de Markov engendrent une classification pour ces états. (n) On dira que l’état j est atteint depuis l’état i s’il existe n > 0 tel que Pi,j > 0. Cette relation est notée i −→ j. Si i −→ j et j −→ i, on dit que les états i et j communiquent, (n) (n0 ) et l’on note i ←→ j : il existe n > 0 et n0 > 0 tels que Pi,j > 0 et Pj,i > 0. Il est facile de montrer que cette relation entre i et j définit une relation d’équivalence. Définition 2.1.8 Les classes d’équivalence de la relation de communication i ←→ j sont appelées les classes de la chaîne de Markov. Si il n’y a qu’une seule classe, la chaîne de Markov est dite irréductible. Une classe C est dite fermée s’il est impossible de passer de C au complémentaire de C en une étape : Pi,j = 0 pour i ∈ C et j ∈ / C. Exemple 2.1.9 Modèle makovien de substitution de base (Allman, Rhodes [2] p. 141). Nous allons décrire un modèle d’évolution moléculaire grâce à une chaîne de Markov à 4 états. Chaque site dans une séquence d’ADN est l’une des 4 bases A, G, C, T (Adénine, Guanine, Cytosine, Thymine), choisie aléatoirement suivant les probabilités pA , pG , pC , pT 2.1. MARCHES ALÉATOIRES 21 telles que pA + pG + pC + pT = 1. Ainsi, le vecteur P0 = (pA , pG , pC , pT ) décrit la distribution ancestrale des bases dans la séquence d’ADN. Nous supposons que les sites sont indépendants les uns des autres. Supposons de plus que ces bases peuvent muter et qu’une seule mutation peut avoir lieu par génération. Le but est d’étudier l’évolution de la chaîne de Markov qui décrit l’état d’un site de la séquence d’ADN à valeurs dans {A, G, C, T } et de distribution initiale P0 . Le modèle de Jukes Cantor d’évolution moléculaire [23] est un cas particulier supposant que les transitions décrivant les probabilités de mutation d’une base à une autre dans la structure d’ADN sont toutes égales et égales à un certain nombre α , avec 0 < α < 1. Ainsi la matrice de transition vaut 3 α α α 1−α 3 3 3 α α α 1−α 3 3 3 . P = α α α 1−α 3 3 3 α α α 1−α 3 3 3 La chaîne de Markov de matrice de transition P est irréductible. Remarquons également que la somme des éléments de chaque colonne est égale à 1 (on a déjà cette propriété pour les lignes). Dans ce cas, la matrice de transition est dite doublement stochastique. Cela reste vrai pour toutes ses puissances. Si la répartition ancestrale des bases est uniforme, alors elle restera uniforme. En effet, calculons par exemple la probabilité d’avoir une base de Guanine au temps n. Par une analogie entre {A, G, C, T } et {1, 2, 3, 4}, cette probabilité vaut QG n = 4 X (n) Pi Pi,2 i=1 4 1 X (n) 1 P = . = 4 i=1 i,2 4 En revanche, si la répartition initiale vaut ( 13 , 16 , 61 , 13 ), alors au temps n = 3, QG 3 = 4 X (3) Pi Pi,2 = i=1 (3) 1 (3) 1 (3) 1 (3) 1 (3) P + P + P + P . 3 1,2 6 2,2 6 3,2 3 4,2 3 On peut vérifier facilement que P2,2 = (1 − α)3 + α2 (1 − α) + 2 α9 et que donc pour i 6= 2, (3) (3) 1 5 2 (3) Pi,2 = 13 (1 − P2,2 ). Ainsi, QG 3 = 6 ( 3 − 3 P2,2 ). Définition 2.1.10 La période d’un état i est le plus grand diviseur commun de tous les (n) entiers n ≥ 1 tels que Pi,i > 0. Si l’état a une période d(i) > 1, il est dit périodique de période d(i). Si la période est égale à 1, l’état i est dit apériodique. (n) Si Pi,i = 0 pour tout n, on définit par extension d(i) = 0. La périodicité est une propriété de classe. Plus précisément, nous avons la proposition suivante. 22 CHAPITRE 2. POPULATIONS SPATIALES Proposition 2.1.11 Si i ←→ j, alors d(i) = d(j). Preuve. Supposons que i ←→ j. Si d(i) = 0, la proposition est triviale. Supposons donc (k) que d(i) ≥ 1. Alors si k est tel que Pi,i > 0, on sait que d(i) divise k. Par ailleurs, par (n) (n0 ) hypothèse, il existe n et n0 tels que Pi,j > 0 et Pj,i > 0. Nous en déduisons que (n0 +k+n) Pj,j (n0 ) (k) (n) ≥ Pj,i Pi,i Pi,j > 0. Cela entraîne que d(j) divise n0 + k + n. Nous pouvons reprendre le raisonnement en remplaçant k par 2k et nous en déduisons de même que d(j) divise n0 + 2k + n. Par différence, il vient que d(j) divise k arbitraire et en particulier d(j) divise d(i). Nous pouvons inverser les notations i et j dans le raisonnement, ce qui permet de conclure. Une classe sera dite apériodique si tous ses états sont apériodiques. 2.1.2 Temps de passage, récurrence et transience Il est important de connaître la chaîne de Markov aux temps discrets n, mais certains temps aléatoires vont aussi s’avérer fondamentaux, en particulier ceux dont la connaissance est liée à la dynamique du processus. Pour la marche aléatoire (Xn )n , les temps successifs de passage de la marche en un état particulier i sont essentiels. On les définit ainsi : Ti = inf{n ≥ 1 : Xn = i} Ti1 = Ti ; Tik+1 = inf{n > Tik : Xn = i}, pour tout k ≥ 1, (2.3) (2.4) avec la convention habituelle que l’infimum de l’ensemble vide vaut +∞. La suite (Tik )k décrit les temps de passage successifs de la chaîne en l’état i. Si X0 = i alors Ti est le temps de premier retour à l’état i et Tj , (j 6= i), est le temps de (n) premier passage en l’état j. La loi de Ti est donnée par les fi,i = P(Ti = n | X0 = i), pour (1) tout n ≥ 1 (n peut éventuellement être infini). Remarquons que fi,i = Pi,i . On verra dans le paragraphe suivant une méthode de calcul de ces lois. Remarquons que l’observation de X0 , . . . , Xn , c’est-à-dire de la chaîne jusqu’à l’instant n, permet de décider si Ti vaut n ou non, s’il est plus petit ou plus grand que n. En d’autres termes, nous avons {Ti = n}, {Ti < n}, {Ti > n} ∈ F n . En effet, par exemple {Ti = n} = {X1 6= i} ∩ . . . ∩ {Xn−1 6= i} ∩ {Xn = i}. Nous allons nous intéresser plus généralement à tous les temps aléatoires qui vérifient cette propriété, appelés temps d’arrêt. 2.1. MARCHES ALÉATOIRES 23 Définition 2.1.12 On appelle temps d’arrêt une variable aléatoire T à valeurs dans N ∪ {+∞} qui vérifie que pour tout n ∈ N, {T = n} ∈ F n . (2.5) Remarque : Ti est bien un temps d’arrêt. Exemple 2.1.13 Pour tout A ⊂ Z, on peut montrer que le temps d’atteinte de A défini par TA = inf(n ≥ 0 : Xn ∈ A) est un temps d’arrêt. En effet, {TA = n} = {X0 ∈ / A} ∩ · · · ∩ {Xn−1 ∈ / A} ∩ {Xn ∈ A}. Le kième temps de passage en A est encore un temps d’arrêt. On peut le montrer par exemple par récurrence sur k en remarquant que k−1 {Tik = n} = ∪n−1 = m} ∩ {Xm+1 ∈ / A} ∩ · · · ∩ {Xn−1 ∈ / A} ∩ {Xn ∈ A}. m=0 {Ti En revanche, l’instant de dernier passage en A, LA = sup(n ≥ 0 : Xn ∈ A), n’est pas un temps d’arrêt. Pour connaître LA , il faut avoir de l’information sur les états ultérieurs de la chaîne. La marche aléatoire satisfait encore la propriété de Markov si l’on conditionne par sa position à un temps d’arrêt. Cette propriété s’appelle la propriété de Markov forte et est fondamentale pour les applications. Théorème 2.1.14 (Propriété de Markov forte). Soit (Xn )n une marche aléatoire et T un temps d’arrêt. Conditionnellement à XT sur {T < ∞}, la suite (XT +n )n≥1 est une chaîne de Markov indépendante de la trajectoire de (Xn )n jusqu’au temps T . Autrement dit, pour tout événement A tel que A ∩ {T = n} ∈ Fn pour tout n, P(A ∩ {XT +1 = i1 , . . . , XT +m = im }|XT = i, T < ∞) = P(A|XT = i, T < ∞) Pi (X1 = i1 , . . . , Xm = im ) (2.6) (2.7) Preuve. Il suffit de remarquer que P(A ∩ {T = n} ∩ {XT +1 = i1 , . . . , XT +m = im }|XT = i) = P(A ∩ {T = n}|XT = i) Pi (X1 = i1 , . . . , Xm = im ). 24 2.1.3 CHAPITRE 2. POPULATIONS SPATIALES Loi du premier temps de retour en 0 d’une marche aléatoire simple Revenons à l’exemple 2.1.3. Nous voudrions savoir si la particule de plancton se déplace sur toute la colonne verticale ou si elle a tendance à aller vers la surface ou vers le fond et à y rester. Pour cela nous pouvons étudier ses temps de passage en 0 (à la profondeur −1650 m), en fonction des probabilités de monter ou de descendre du plancton. Nous allons donc étudier plus généralement les temps de passage en 0 d’une marche aléatoire simple sur Z. Considérons une marche aléatoire simple partant de 0, c’est-à-dire telle que X0 = 0. Nous nous intéressons à la suite des instants aléatoires où la particule se retrouve à l’origine. Pour décrire ces instants, il suffit de considérer l’instant de premier retour à l’origine, puisque les instants suivants sont des sommes de copies indépendantes de celui-ci par la propriété de Markov forte. En effet, si T0 = inf{n ≥ 1 : Xn = 0} ∈ N∗ ∪ {∞}, désigne l’instant de premier retour en 0, (en posant min{∅} = ∞), et T0j désigne l’instant du j-ième retour en 0 pour la marche aléatoire, on voit que sur {T0j < ∞}, T0j+1 = T0j + τ˜0 , où τ˜0 est le premier temps d’atteinte de 0 par la marche aléatoire (XT j +n )n≥0 . L’égalité 0 reste vraie si {T0j = +∞}. Donc par application de la propriété de Markov forte (2.6) appliquée au temps d’arrêt T0j , nous en déduisons que τ˜0 est indépendant de T0j et a même loi que τ0 . La propriété décrite plus haut s’en déduit par récurrence. Nous souhaitons connaître la loi de T0 . Nous allons calculer sa fonction génératrice. Pour cela, introduisons, pour n ≥ 1 f (n) = P(T0 = n) = P(X1 6= 0, . . . , Xn−1 6= 0, Xn = 0). Attention, il se peut que P(T0 = +∞) > 0 (si le processus ne revient jamais en 0), auquel cas la fonction génératrice F de T0 , définie pour s ∈ [0, 1] par F (s) = E( sT0 ) = ∞ X f (n) sn , n=1 vérifie F (1) = 1 − P(T0 = +∞) = P(T0 < +∞). Proposition 2.1.15 Si (Xn )n est une marche aléatoire simple issue de 0, la fonction génératrice du premier temps de retour en 0 vaut pour tout s ∈ [0, 1], F (s) = 1 − (1 − 4pqs2 )1/2 . 2.1. MARCHES ALÉATOIRES 25 Preuve. Nous allons introduire la fonction auxiliaire Q définie pour s ∈ [0, 1] par Q(s) = ∞ X P(Xn = 0) sn , n=0 que l’on calcule plus aisément. Montrons que (i) Q(s) = 1 + Q(s) F (s). (ii) Q(s) = (1 − 4pqs2 )−1/2 . D’après la formule de Bayes, P(Xn = 0) = n X P(Xn = 0 | T0 = k) P(T0 = k) . k=1 Il est facile de voir que, puisque les variables aléatoires Zi (i ≥ 1) sont indépendantes et de même loi, la propriété de Markov forte entraîne que P(Xn = 0 | T0 = k) = P(Xn − Xk = 0 | T0 = k) = P(Xn−k = 0). Nous en déduisons que an = P(Xn = 0) est solution de an = n X an−k f (k) , k=1 et a0 = 1. En multipliant par sn et en sommant en n, puis en utilisant le théorème de Fubini, nous obtenons Q(s) = X n an s = 1 + n≥0 =1+ n XX an−k sn−k f (k)sk n≥1 k=1 ∞ X k=1 f (k)sk +∞ X an−k sn−k = 1 + F (s) Q(s), n=k ce qui démontre (i). P Remarquons que Xn2+n suit la loi binomiale B(n, p). En effet, Xn2+n = ni=1 (Zi2+1) et les Zi +1 variables aléatoires 2 sont indépendantes et de loi de Bernoulli de paramètre p. Ainsi, n P(Xn = 0) = (pq)n/2 lorsque n est pair et P(Xn = 0) = 0 si n est impair. Nous n/2 avons alors X 2n X 2n (2n − 1)(2n − 3) · · · 1 Q(s) = (pq)n s2n = (pq s2 )n n n! n≥0 n≥0 X (2n − 1)(2n − 3) · · · 1 = (4pq s2 )n . n 2 n! n≥0 26 CHAPITRE 2. POPULATIONS SPATIALES Nous pouvons identifier le dernier terme en le comparant au développement en série entière (− 12 )(− 12 − 1) 2 (− 1 )(− 12 − 1) · · · (− 12 − n + 1) n 1 1 (1 + u)− 2 = 1 − u + u + ... + + 2 u + ··· 2 2! n! (pour |u| < 1). Nous en déduisons (ii), puis la valeur de F (s). Corollaire 2.1.16 La probabilité que la particule retourne au moins une fois à l’origine vaut 2(1 − p) si p > 1/2 2p si p < 1/2 . P(T0 < +∞) = F (1) = 1 − |2p − 1| = 1 si p = 1/2 1 Si p = , le temps moyen de premier retour E(T0 ) est infini. 2 Preuve. On a P (T0 < +∞) = lim F (s) = 1 − (1 − 4pq)1/2 z%1 = 1 − |2p − 1| d’après la Proposition 2.1.15. De plus, lorsque p = 1/2, F (s) = 1 − (1 − s2 )1/2 et E(T0 ) = lim F 0 (s) = +∞. s%1 Remarque 2.1.17 D’après le Corollaire 2.1.16, la marche aléatoire simple est récurrente, c’est-à-dire qu’elle revient presque-sûrement à son point de départ, si et seulement si 1 Sn p = . Ceci est conforme à la loi des grands nombres, qui entraîne ici que P( lim = n→∞ n 2 2p − 1) = 1. Notons que lorsque p = 1/2, T0 est fini presque-sûrement, mais le retour à 0 s’effectue lentement puisque le temps moyen de retour en 0 est infini. Le modèle de marche aléatoire simple se généralise en supposant que les variables aléatoires Zn sont indépendantes et de même loi de carré intégrable, et l’on note E(Zn ) = m ; V ar(Zn ) = σ 2 . (2.8) 2.1. MARCHES ALÉATOIRES 27 Remarquons que nous connaissons le comportement asymptotique du processus (Xn )n : par la loi des grands nombres, nous savons que Xnn converge presque-sûrement vers m quand n tend vers l’infini. Nous en déduisons que si m 6= 0, la chaîne est forcément transiente : à partir d’un certain rang, elle ne pourra plus repasser par 0. Ce raisonnement peut également s’appliquer dans le cas d’une dimension supérieure à 1. Le cas où m = 0 est plus délicat comme on peut déjà l’observer dans le cas des marches aléatoires symétriques. Nous avons étudié le cas de la dimension 1 dans le Corollaire 2.1.16, mais l’on montre en fait que les propriétés de transience et de récurrence de la marche aléatoire symétrique sont liées à la dimension de l’espace. Nous ne démontrerons pas le théorème suivant. Théorème 2.1.18 (voir [16], [5], [42]) La marche aléatoire simple symétrique est récurrente si la dimension d est égale à 1 ou 2. Si d ≥ 3, la marche aléatoire est transiente. Nous allons maintenant donner une définition précise de ces propriétés pour une chaîne de Markov et en déduire certains comportements en temps long. 2.1.4 Théorèmes ergodiques Nous allons donner ici les principaux résultats concernant le comportement d’une chaîne de Markov quand le temps n tend vers l’infini. Ces résultats font partie d’une théorie probabiliste importante qui n’est pas le but de ce livre. Nous renvoyons par exemple aux livres de Pardoux [35] et Graham [16] pour plus de détails. Nous considérons une chaîne de Markov (Xn )n et pour chaque état i, nous définissons le nombre Ni de passages au point i. Ainsi, X Ni = 1Xn =i . n≥0 Proposition 2.1.19 La variable aléatoire Ni suit sous Pi une loi géométrique sur N∗ de paramètre Pi (Ti < +∞) : pour tout k ∈ N∗ , P(Ni = k) = Pi (Ti < +∞)k−1 (1 − Pi (Ti < +∞)). Si Pi (Ti < +∞) < 1, le nombre moyen de passages en i vaut alors E(Ni ) = Pi (Ti < +∞) < +∞. 1 − Pi (Ti < +∞) Preuve. Remarquons que si la chaîne de Markov part de i, nécessairement Ni ≥ 1. La propriété de Markov forte (Théorème 2.6) permet de montrer que pour tout k ≥ 0, Pi (Ni > k) = Pi (Ti < +∞)k . 28 CHAPITRE 2. POPULATIONS SPATIALES En effet, nous avons pour k ≥ 2, Pi (Ni ≥ k) = Pi (Ni ≥ k, Ti < +∞) = Pi (Ni ≥ k − 1)Pi (Ti < +∞). Nous en déduisons facilement que Ei (Ni ) = X Pi (Ni > k) = k≥0 Pi (Ti < +∞) . 1 − Pi (Ti < +∞) Nous pouvons ainsi observer deux comportements opposés qui conduisent à donner la définition suivante. Définition 2.1.20 Un état i est dit transitoire si et seulement si Pi (Ti < +∞) < 1 ⇐⇒ Pi (Ni = +∞) = 0 ⇐⇒ Ei (Ni ) < +∞. Un état i est dit récurrent si et seulement si Pi (Ti < +∞) = 1 ⇐⇒ Pi (Ni = +∞) = 1 ⇐⇒ Ei (Ni ) = +∞. Un entier i est donc un état récurrent si la chaîne issue de l’état i revient en i P de Markov (n) = 1. L’état i est transient dans f en temps fini avec probabilité 1, c’est à dire si ∞ n=1 ii le cas contraire. Proposition 2.1.21 Si i ←→ j, alors i et j sont simultanément transitoires ou récurrents. Si la chaîne est irréductible, les états sont soit tous récurrents, soit tous transients et la chaîne est alors dite récurrente ou transitoire. Dans le cas où tous les états sont récurrents, la chaîne est alors dite irréductible récurrente. Preuve. Supposons que i soit récurrent. Alors les temps de passage successifs en i, notés Tik , sont finis Pi -presque-sûrement. Appelons Yk le nombre de passages en j entre Tik−1 et Tik . La propriété de Markov forte entraîne que les variables aléatoires Yk sont indépendantes et équidistribuées sous Pi et par hypothèse, (puisque i −→ j), Pi (Y1 = 0) < 1. En particulier, pour tout n Pi (∪k≥0 {Yk+1 = Yk+2 = · · · = 0}) = lim Pi (Yk+1 = Yk+2 = · · · = 0) k = Pi (∀k, Yk = 0) ≤ Pi (Y1 = · · · = Yn = 0) = Pi (Y1 = 0)n , P d’où Pi (∪k≥0 {Yk+1 = Yk+2 = · · · = 0}) = 0. Soit Nj = k≥1 Yk le nombre de passage en j. Alors Pi (Nj < +∞) = Pi (∪k≥0 {Yk+1 = Yk+2 = · · · = 0}) = 0, 2.1. MARCHES ALÉATOIRES 29 et Pi (Nj = +∞) = 1. La propriété de Markov implique par ailleurs que Pi (Nj = +∞) = Pi (Tj < +∞)Pj (Nj = +∞). Nous en déduisons que Pj (Nj = +∞) = 1 et que l’état j est récurrent. (2.9) Signalons qu’une autre preuve de la Proposition 2.1.21 est donnée dans l’Exercice 2.6.2. Nous allons maintenant prouver des théorèmes décrivant le comportement en temps long d’une chaîne de Markov irréductible et récurrente. Définition 2.1.22 Une probabilité stationnaire pour la chaîne de Markov de matrice de transition (Pi,j )i,j∈N est une probabilité π = (πi )i∈N telle que X π P = π ⇐⇒ πi Pi,j = πj , ∀j. (2.10) i Cette probabilité représente un équilibre en loi de la chaîne, au sens où si la condition initiale X0 a pour loi π, alors à chaque instant n, la variable aléatoire Xn a la loi π. Celle-ci s’appelle aussi la loi invariante de X. L’équation 2.10, réécrite sous la forme X πi Pi,j = πj (1 − Pj,j ), i6=j peut être vue comme un bilan égalisant ce qui part de j et ce qui arrive en j. La recherche d’une probabilité invariante se ramène à un problème d’algèbre linéaire, puisque le vecteur π est un vecteur propre à gauche de la matrice P associé à la valeur propre 1. Dans le cas de la dimension finie, l’existence et l’unicité d’un tel vecteur sont liées au théorème de Perron-Frobenius. En effet, dans le cas d’un espace d’état fini, on a le théorème suivant. Théorème 2.1.23 Une chaîne de Markov à espace d’état fini et irréductible admet au moins une probabilité stationnaire π. Preuve. Supposons que l’espace d’état soit {1, · · · , N }. La matrice P est telle que la somme des éléments de chacune de ses lignes est égale à 1 et chacun de ses coefficients est positif. Ainsi, il est immédiat que 1 est valeur propre associée au vecteur propre dont chaque coordonnée est égale à 1. Par ailleurs, si λ est une valeur propre de P , et v un vecteur propre associé à λ tel que |vi0 | = max |vi |. Alors, on a X |λ||vi0 | = | Pi0 ,j vj | ≤ max |vi |, j i=1,··· ,N d’où |λ| ≤ 1. La valeur propre 1 est donc une valeur propre supérieure au module de toute autre valeur propre. Comme la chaîne de Markov est irréductible, le théorème de PerronFrobenius (Voir Appendice Théorème .1.2) s’applique. Nous en déduisons que la valeur 30 CHAPITRE 2. POPULATIONS SPATIALES propre 1 est associée à un vecteur propre à gauche π qui est une probabilité stationnaire de la chaîne de Markov. Plus généralement, nous donnons ci-dessous des conditions assurant l’existence et l’unicité d’une probabilité stationnaire. Nous dirons qu’une chaîne de Markov irréductible est récurrente positive si elle est irréductible et si tous ses états i sont récurrents et vérifient Ei (Ti ) < +∞. Théorème 2.1.24 Une chaîne de Markov (Xn )n irréductible de matrice de transition (Pi,j ) est récurrente positive si et seulement si il existe une probabilité stationnaire π. Dans ce cas, π est l’unique probabilité stationnaire, πi > 0 pour tout i et πi = 1 > 0. Ei (Ti ) Preuve. Rappelons que si la chaîne est récurrente, le temps d’arrêt Ti est fini presquesûrement. Introduisons mij , le nombre moyen de visites de la chaîne à l’état j entre deux temps de passage en i. Nous avons mii = 1 et pour j 6= i, mij Ti X XX X 1Xn =j ) = Pi (Xn = j, n ≤ Ti ) = Pi (Xn−1 = k, n − 1 ≤ Ti , Xn = j) = Ei ( n=1 n≥1 k n≥1 ! = X X k Pi (Xn−1 = k, n − 1 ≤ Ti ) Pk,j = (mi .P )j . n≥1 Ainsi, la mesure mi est une mesure invariante, au sens où mi P = mi . Montrons que cette mesure est strictement positive en chaque point et est de masse finie. (n) La chaîne est irréductible et donc il existe n > 0 tel que Pi,j > 0. Ainsi, puisque mii = 1, nous avons (n) (n) 0 < Pi,j = mii Pi,j ≤ (mi .P )j = mij . De plus, X mij = Ei (Ti ), j qui est fini par hypothèse. mi Nous avons donc montré l’existence d’une probabilité invariante π définie par πj = Ei (Tji ) . 1 En particulier, πi = Ei (T . Montrons l’unicité. Soit λ une autre mesure invariante (de i) masse finie). Nous pouvons supposer sans perdre de généralité que λi = 1. Alors, pour 2.1. MARCHES ALÉATOIRES 31 tout j, λj = Pi,j + X λk1 Pk1 ,j k1 6=i = Pi,j + X Pi,k1 Pk1 ,j + k1 6=i ≥ ∞ X X λk2 Pk2 ,k1 Pk1 ,j k1 ,k2 6=i X Pi,kn Pkn ,kn−1 · · · Pk1 ,j n=0 k1 ,··· ,kn 6=i = ∞ X Pi (Xn+1 = j, Ti ≥ n + 1) = mij . n=0 Ainsi, la mesure µ = λ − mi est une mesure positive, stationnaire et vérifie µi = 0. Mais (n) alors, soient j et n tel que Pj,i > 0. Nous avons 0 = µi = X (n) (n) µk Pk,i ≥ µj Pj,i . k Cela entraîne que nécéssairement, µj = 0, et ceci pour tout j. L’unicité de la probabilité invariante est ainsi démontrée. Réciproquement, si π est une probabilité stationnaire, elle est strictement P positive par (n) l’argument précédent. De plus supposons qu’un état j soit transitoire. Alors n≥0 Pj,j = (n) Ej (Nj ) < +∞, d’où limn→∞ Pj,j = 0. Nous déduisons alors de (2.9) que pour tout i, P (n) (n) limn→∞ Pi,j = 0. Ainsi, π(j) = i π(i)Pi,j = 0 par théorème de convergence dominée, ce qui est contradictoire. Nous en déduisons donc que tous les états sont récurrents. Nous avons vu dans la première partie de la preuve que dans ce cas, la mesure π mi est l’unique mesure stationnaire telle que mii = 1. Nous avons donc mi = π(i) et P i P 1 1 Ei (Ti ) = j mj = π(i) j π(j) = π(i) < +∞. Ainsi, tout état i est récurrent positif. Exemple 2.1.25 Une chaîne de Markov à valeurs dans un espace d’état fini et irréductible est récurrente positive. P En effet, supposons que l’espace d’état soit un ensemble F . Alors i∈F Ni = +∞ et P i∈F E(Ni ) = +∞. Comme F est fini, il existe i tel que E(Ni ) = +∞. Mais la propriété de Markov implique que E(Ni ) = P(Ti < +∞)Ei (Ni ) et donc que i est récurrent. Nous P pouvons alors définir la mesure invariante associée mi . Comme F est fini, Ei (Ti ) = j∈F mij est fini et i est récurrent positif. Nous pouvons déduire du Théorème 2.1.24 le comportement en temps long de la chaîne (n) de Markov en étudiant la limite, quand n tend vers l’infini, de Pi,j = Pi (Xn = j). Nous avons vu dans la preuve précédente que cette quantité est nulle si l’état j est transitoire. 32 CHAPITRE 2. POPULATIONS SPATIALES Théorème 2.1.26 Soit (Xn )n une chaîne de Markov irréductible, récurrente positive et apériodique de matrice de transition (Pi,j ). Alors pour tous i, j ∈ N, (n) lim Pi,j = lim Pi (Xn = j) = n→∞ n→∞ 1 . Ej (Tj ) Preuve. Nous savons par le Théorème 2.1.24 que la chaîne X a une unique probabilité 1 . La preuve du résultat utilise une technique de couplage. stationnaire π et que π(j) = Ej (T j) Introduisons deux chaînes indépendantes X 1 et X 2 de même matrice de transition que la chaîne X. La chaîne X 1 est issue de i et X02 a pour loi π. Soit Y = (X 1 , X 2 ). Nous montrerons au Lemme 2.1.27 que le processus Y est une chaîne de Markov irréductible, récurrente positive et et apériodique. Soit T = inf {n ≥ 0, Xn1 = Xn2 }. Bien que les deux chaînes n’aient pas la même condition initiale, elles auront même loi après le temps T . Remarquons que P(Xn1 = j) = P(Xn1 = j, T > n) + P(Xn1 = j, T ≤ n) = P(Xn1 = j, T > n) + P(Xn2 = j, T ≤ n) ≤ P(T > n) + P(Xn2 = j). En inversant les rôles de X 1 et X 2 nous obtenons finalement que |P(Xn1 = j) − P(Xn2 = j)| ≤ P(T > n). De plus nous savons que P(Xn2 = j) = π(j). La preuve du théorème sera immédiate dès lors que l’on montre que P(T > n) tend vers 0 quand n tend vers l’infini. Or comme Y est récurrente positive, T , qui est le temps d’atteinte de la diagonale par Y , est fini presque-sûrement, ce qui nous permet de conclure. Lemme 2.1.27 Si X 1 et X 2 sont deux chaînes de Markov indépendantes, de même matrice de transition P , irréductibles, récurrentes positives et et apériodiques, il en est de même de Y = (X 1 , X 2 ). Preuve. Le processus Y est clairement une chaîne de Markov. Sa matrice de transition (P ⊗ P ) est définie par (P ⊗ P )(i,k),(j,l) = Pi,j Pk,l (n) (n) (n) et (P ⊗P )(i,k),(j,l) = P(i,k) (Yn = (j, l)) = Pi,j Pk,l . Montrons qu’elle est irréductible, c’est à (n) dire que pour tous i, j, k, l, il existe n tel que (P ⊗ P )(i,k),(j,l) > 0. Nous savons qu’il existe (n ) (n ) n1 et n2 tels que Pi,j 1 > 0 et Pk,l 2 > 0 puisque X est irréductible. Nous savons de plus que (n) X est apériodique. Dans ce cas, pour tout état i, il existe n(i) tel que Pi,i > 0 pour tout n ≥ n(i). Cela est une conséquence d’un résultat classique de théorie des nombres : tout ensemble d’entiers qui est stable pour l’addition et de PGCD 1, comme c’est le cas pour (n) I(i) = {n ≥ 1, Pi,i > 0}, contient tous les entiers, sauf peut-être un nombre fini d’entre 2.1. MARCHES ALÉATOIRES 33 (n+m) (n) (m) eux. (Il est facile de voir que I(i) est stable pour l’addition puisque Pi,i ≥ Pi,i Pi,i ). (n) (n1 ) (n(j)) Prenons alors n ≥ n(j) + n(l) + n1 + n2 . Nous avons Pi,j ≥ Pi,j Pj,j > 0, et de même (n) (n) Pk,l > 0. Ainsi (P ⊗ P )(i,k),(j,l) > 0. Comme X est récurrente positive, elle admet une probabilité stationnaire π et il est facile de voir que π ⊗ π est une probabilité stationnaire pour Y . Par le théorème 2.1.24, nous en déduisons que Y est récurrente positive. Exemple 2.1.28 Considérons une chaîne de Markov X de naissance et mort à valeurs dans {0, · · · , N }, telle que Pi,i+1 = b(i), Pi,i−1 = d(i), Pi,i = 1 − b(i) − d(i), d(0) = b(N ) = 0. Supposons que pour tout i ∈ {0, · · · , N − 1}, b(i) > 0 et que pour tout i ∈ {1, · · · , N } d(i) > 0. (La condition b(0) > 0 peut modéliser une forme d’immigration quand la population s’éteint). La chaîne est irréductible et à espace d’état fini. La chaîne est donc récurrente positive et admet une unique probabilité invariante, solution de πP = π qui s’écrit ici : pour tout i, b(i − 1)π(i − 1) + d(i + 1)π(i + 1) − π(i)(b(i) + d(i)) = 0. En particulier, cela donne pour i = N que pouvons montrer que pour i ∈ {1, · · · , N }, π(i) = π(N ) π(N −1) = b(N −1) . b(N ) b(0)b(1) · · · b(i − 1) π(0), d(1)d(2) · · · d(i) avec π(0) = De proche en proche, nous !−1 . d(1)d(2) · · · d(i) i=1 P La dernière expression est obtenue en utilisant que N i=0 π(i) = 1. 2.1.5 1+ N X b(0)b(1) · · · b(i − 1) Barrières absorbantes Considérons une marche aléatoire sur Z avec deux barrières absorbantes aux points 0 et a ∈ N∗ . Du point de vue de la modélisation, il peut s’agir de la dynamique de la particule de plancton près des côtes bretonnes où la profondeur de la mer est d’environ 5 m. Le fond de la mer est recouvert de moules (prédatrices de plancton) et la particule est absorbée dès qu’elle touche le fond. Dans ce modèle, 0 désignera le fond de la mer et la surface de la mer est à la hauteur a ∈ N. Cette surface est recouverte d’une nappe de pollution qui absorbera la cellule si celle-ci y parvient. Le déplacement de la particule de plancton va alors suivre une marche aléatoire entre 0 et a, absorbée en 0 et en a. Dans notre modèle a = 5. Ce modèle peut aussi décrire la dynamique d’un poisson dans une rivière où il y a deux filets de pêche en positions 0 et a. Si le poisson atteint l’un des filets, il est capturé et 34 CHAPITRE 2. POPULATIONS SPATIALES reste immobile. Là encore, le déplacement est modélisé par une marche aléatoire absorbée en 0 et en a. Il est commode de représenter la dynamique de cette marche par le diagramme suivant qui indique la probabilité des différents sauts possibles. Calculons la probabilité d’absorption en 0 ou d’extinction. Notons Pk la probabilité conditionnée au fait que X0 = k. Notons O l’événement "la marche est absorbée en 0". Ainsi, O = {T0 < ∞}, où T0 est le premier temps d’atteinte de 0 par la marche aléatoire. Nous allons déterminer la probabilité µk = Pk (O) de 0 sachant que la position initiale de l’individu est k. Nous avons immédiatement Pk (O) = Pk (O | Z1 = 1) P (Z1 = 1) + Pk (O | Z1 = −1) P (Z1 = −1) , (2.11) d’où p µk+1 + (1 − p) µk−1 − µk = 0 (2.12) pour k ∈ {1, . . . , a − 1}, avec les conditions aux limites µ0 = 1, µa = 0. L’équation (2.12) est une équation de récurrence linéaire, pour laquelle nous cherchons d’abord les solutions de la forme µk = rk . Le nombre r doit satisfaire l’équation caractéristique p r2 − r + (1 − p) = 0 , dont les solutions sont r1 = 1, r2 = (1 − p)/p. Deux cas se présentent alors. • p 6= 1/2 (marche asymétrique). Les deux racines sont différentes, les solutions de (2.12) sont de la forme µk = α r1k + β r2k et α et β sont déterminés par les conditions aux limites µ0 = 1, µa = 0. Nous obtenons a k 1−p − 1−p p p a Pk (O) = , 0 ≤ k < a. (2.13) 1−p − 1 p Procédant de même pour l’événement A : "la marche aléatoire atteint a avant 0", nous constatons que Pk (A) satisfait (2.12), avec d’autres conditions aux limites µ0 = 0, µa = 1. Nous trouvons alors que Pk (A) = 1 − Pk (O), si bien que l’individu est piégé en un temps fini, avec probabilité 1. 2.1. MARCHES ALÉATOIRES 35 • p = 1/2 (marche symétrique). Dans ce cas, r1 = r2 = 1 et les solutions de (2.12) sont de la forme µk = α + β k. En tenant compte des conditions aux limites, nous obtenons Pk (O) = 1 − k a , Pk (A) = k . a (2.14) Ici encore le poisson finit par être piégé (presque-sûrement). Remarquons que si p > 21 , et si a est suffisamment grand, alors k Pk (O) ' 1−p dépend donc exponentiellement de k. p 1−p p a est négligeable, et Par exemple supposons que p = 0, 505 et que a = 1000. Alors P2 (O) ' 0, 96 et P500 (O) ' 4, 5 × 10−5 . Calcul de la durée moyenne avant l’absorption. Déterminons le nombre moyen d’étapes avant l’absorption, donné par Vk = Ek (T ), où T est le temps d’atteinte d’une des barrières, défini par T = min{n ≥ 0 : Xn = 0 ou a} = T0 ∧ Ta . Par la propriété de Markov, en conditionnant par le comportement de la chaîne au temps 1, nous obtenons que pour 1 ≤ k ≤ a − 1, Ek (T ) = 1 + P (Z1 = 1) Ek+1 (T ) + P(Z1 = −1) Ek−1 (T ). Cela nous conduit à l’équation de récurrence linéaire avec second membre p Vk+1 + (1 − p)Vk−1 − Vk = −1 (2.15) pour 1 ≤ k ≤ a − 1, avec V0 = Va = 0. Cette équation est résolue en trouvant les solutions générales et une solution particulière. (L’équation caractéristique est la même que dans les calculs précédents). Ek (T ) = 1−p p k 1− 1 a k − a 1 − 2p 1 − 1−p si p 6= 1/2 , p = k(a − k) si p = 1/2 . (2.16) Par exemple, si p = 0, 5 alors V1 = 9 et V5 = 25. Si a = 1000, on a V1 = 999 et V500 = 250000. 36 CHAPITRE 2. POPULATIONS SPATIALES Etudions le cas où a tend vers l’infini. Supposons que le plancton évolue à une profondeur de 100 m et que le fond soit encore couvert de moules. La surface de la mer est très propre. La taille du plancton est alors très petite devant la profondeur et le modèle du déplacement de la particule de plancton va alors être une marche aléatoire sur N, absorbée en 0. La surface correspond dans ce cas à a = +∞. En faisant tendre a vers +∞ dans les calculs précédents, nous pouvons en déduire la probabilité d’absorption au fond car les événements {T0 < Ta } convergent en k croissant vers {T0 < ∞}. Si q < p, la probabilité d’arriver à 0 en partant de k vaut pq . En revanche, si q ≥ p, cette probabilité vaut 1 pour tout k. Lien avec la probabilité d’extinction d’une population. Comme nous l’avons vu dans l’introduction, ce type de modèle est également très adapté pour décrire la dynamique d’une population. Imaginons que Xn soit la taille d’une population au temps n. A chaque unité de temps, celle-ci croît de un individu (naissance) avec probabilité p et décroît de un individu (mort) avec probabilité q = 1 − p. Le passage en 0 signifie l’extinction de la population. Si l’on suppose qu’il n’y a pas d’immigration, la population une fois éteinte ne peut plus renaître, et le processus modélisant sa taille reste égal à 0. Ce processus est donc une marche aléatoire à valeurs dans N, absorbée en 0. Suivant le rapport entre les probabilités de naissance et mort (p et q), la population va s’éteindre ou non. Le temps d’atteinte de 0 est alors le temps que la population met à disparaître. Nous avons vu ci-dessus que si q < p, la probabilité d’extinction en partant k de k individus au temps 0 vaut pq . En revanche, si q ≥ p, cette probabilité vaut 1 pour tout k. L’interprétation de ce résultat pour une dynamique de population est claire : si la probabilité de naissance p est supérieure à la probabilité de mort q, il y a une probabilité strictement positive de ne pas s’éteindre, qui dépend de la taille initiale de la population, mais dans le cas contraire, la probabilité d’extinction est 1. Remarquons qu’en faisant tendre a vers +∞ dans (2.16), nous obtenons que dans les cas d’extinction presque-sure, Ek (T0 ) = k 1 − 2p = +∞ si p < 1/2 , si p = 1/2 . Dans le cas où il n’y a pas extinction (p > 1/2), la loi des grands nombres nous montre que la taille de la population tend vers l’infini. 2.1.6 Barrières réfléchissantes Nous supposons maintenant que la particule de plancton évolue toujours à une petite profondeur a et que le prédateur ou polluant ne peut la détruire qu’avec une probabilité 2.2. MOUVEMENT BROWNIEN ET DIFFUSIONS 37 inférieure à 1. Lorsqu’elle arrive au fond ou à la surface, elle repart instantanément dans l’autre sens avec une certaine probabilité ou y demeure avec la probabilité complémentaire. Nous pouvons alors procéder comme précédemment, en supposant que si la particule de plancton est au fond (en 0), elle a une probabilité 1 − p d’y rester et une probabilité p de remonter en 1 et que de même, si elle atteint la surface (en a), elle a une probabilité p d’y rester et 1 − p de redescendre en a − 1. Dans ce cas, nous pouvons imaginer que la particule de plancton se déplace indéfiniment entre les barrières avec probabilité positive. Nous souhaitons savoir comment la particule se stabilise en temps long et chercher le comportement de la marche aléatoire (Xn )n quand n → ∞. Cette marche aléatoire ne prend qu’un nombre fini de valeurs et il est facile de montrer qu’elle est irréductible et apériodique. Par le théorème 2.1.23, nous savons qu’il existe une unique probabilité stationnaire π = (πi )i∈{0,...,a} , telle que la loi de Xn converge vers π quand n tend vers l’infini (pour toute condition initiale). En conditionnant par rapport au déplacement antérieur des individus, nous avons pour tout n et tout i ∈ {0, · · · , a}, P(Xn = i) = P(Xn = i | Xn−1 = i − 1) P(Xn−1 = i − 1) + P(Xn = i | Xn−1 = i + 1) P(Xn−1 = i + 1) = p P(Xn−1 = i − 1) + (1 − p) P(Xn−1 = i + 1). En passant à la limite, nous obtenons que π satisfait l’équation suivante πi = p πi−1 + (1 − p) πi+1 , 1≤i≤a−1 avec les conditions aux bords π0 = (1 − p) π0 + (1 − p) π1 ; πa = p πa−1 + p πa . Cette équation se résout facilement et nous obtenons que i 1 − p 1−p p πi = a+1 , ∀i = 0, · · · , a. 1−p p 1 − 1−p 1 Si p = 21 , alors πi = a+1 et la distribution invariante est uniforme sur {0, · · · , a}, ce qui est un résultat très intuitif. Si en revanche, 1 − p > p ⇔ p < 1/2, (respectivement 1 − p < p ⇔ p > 1/2), alors πi décroît géométriquement depuis la barrière attractive 0, (respectivement depuis la barrière a). 2.2 Mouvement brownien et diffusions Les exemples que nous venons de développer en dimension 1 sont très simples, mais montrent toutefois que les calculs donnant les probabilités d’atteinte de barrières, les 38 CHAPITRE 2. POPULATIONS SPATIALES temps moyens avant d’être piégé ou la probabilité invariante, deviennent vite compliqués. On peut imaginer que des dynamiques plus complexes (dimension plus grande, forme compliquée du domaine spatial, ...) peuvent amener de grandes difficultés techniques. Nous allons maintenant introduire une approximation de ces marches aléatoires dans des échelles spatiale et temporelle différentes, qui permettra plus facilement de faire des calculs. Cette approximation est un processus à trajectoires continues fondamental dans la modélisation probabiliste : le mouvement brownien. Le mouvement brownien est un processus fondamental en probabilités, aux propriétés innombrables. Toutefois nous ne donnerons dans ce livre que ses particularités les plus importantes. Il existe une très riche littérature sur le mouvement brownien et la liste de nos références n’est pas exhaustive. Nous référerons de manière privilégiée au livre de Comets–Meyre [10]. Citons également les livres de Karatzas–Shreve [24], Ikeda–Watanabe [19], Revuz–Yor [39]. 2.2.1 Le mouvement brownien Une marche aléatoire simple symétrique sur Z et nulle en 0 saute d’une unité d’espace pendant chaque unité de temps. Ce type de modèle semble inadéquat dès lors que l’on considère des mouvements très erratiques et qui semblent varier presque continûment, comme les mouvements de micro-organismes, d’insectes, de particules de pollen à la surface de l’eau. Dans de telles situations, les échelles de taille sont très petites et les changements de position très rapides. Néanmoins nous pouvons voir ces déplacements comme ceux d’une marche aléatoire accélérée et vue de loin. Dans le paragraphe suivant, nous effectuerons donc un changement d’échelles d’espace et de temps qui va permettre, à partir d’une marche aléatoire, de définir l’objet limite décrivant ce type de comportement, à savoir le mouvement brownien. Nous verrons que la bonne échelle va nous être donnée par le théorème de la limite centrale. Comme nous allons faire tendre le pas d’espace et le pas de temps vers 0, l’objet limite sera une fonction aléatoire définie sur R+ et à valeurs réelles, que l’on appelle un processus aléatoire. Définition 2.2.1 On appelle processus aléatoire (Xt )t≥0 une famille de variables aléatoires indexée par R+ , toutes ces variables étant définies sur le même espace de probabilité (Ω, A, P). On suppose ici que chaque Xt est à valeurs réelles. On peut également voir ce processus comme une variable aléatoire X définie sur (Ω, A, P) et à valeurs dans l’ensemble des fonctions x : t 7→ xt de R+ dans R, qui à chaque ω associe la fonction t 7→ Xt (ω). La théorie moderne des probabilités repose sur les résultats fondamentaux de Kolmogorov (1933) qui permettent de construire sur l’ensemble des fonctions de R+ dans R une tribu qui rend l’application X. mesurable de (Ω, A) vers RR+ (et permet donc de parler de fonction aléatoire). Cette tribu est la plus petite tribu qui rend les applications x 7→ xt 2.2. MOUVEMENT BROWNIEN ET DIFFUSIONS 39 mesurables de RR+ dans R pour tout t > 0 et est appelée tribu produit. Sa construction est décrite dans [10] et détaillée dans [31] et [33]. Elle va en particulier permettre de caractériser la loi du processus (i.e. une probabilité sur un espace de trajectoires infinidimensionnel), par la connaissance des lois de vecteurs aléatoires (probabilités sur Rk ). Théorème 2.2.2 La loi d’un processus (Xt , t ≥ 0), probabilité sur RR+ , est caractérisée par ses lois marginales de dimension finie, définies comme étant les lois des k-uplets (Xt1 , ..., Xtk ), pour tous temps t1 , ..., tk . Ce théorème va s’avérer extrêmement utile pour caractériser la loi du mouvement brownien que nous allons introduire maintenant comme approximation de marches aléatoires. En reprenant les notations du chapitre précédent, nous pouvons tout d’abord remarquer qu’une marche aléatoire vérifie les deux propriétés fondamentales suivantes : • Pour tous n et k, Xn+k − Xn est indépendant de Xn , Xn−1 , . . . , X0 . • Pour tous n et k, Xn+k − Xn a même loi que Xk − X0 . Les accroissements de la marche aléatoire sont donc indépendants et stationnaires. Nous en déduisons la définition suivante. Définition 2.2.3 On dit que le processus (Xn )n∈N est un processus à acroissements indépendants et stationnaires (noté plus simplement PAIS) si pour tous entiers 0 ≤ n1 < n2 < · · · < nk , les variables aléatoires (Xn1 , Xn2 − Xn1 , . . . , Xnk − Xnk−1 ) sont indépendantes et si Xn2 − Xn1 a même loi que Xn2 −n1 . De même, le processus (Xt , t ∈ R+ ) ) est un processus à acroissements indépendants et stationnaires si pour tous réels positifs 0 ≤ t1 < t2 < · · · < tk , les variables aléatoires (Xt1 , Xt2 −Xt1 , . . . , Xtk −Xtk−1 ) sont indépendantes et si Xt2 −Xt1 a même loi que Xt2 −t1 . Dans ce cas, la loi du processus est caractérisée par les lois de ses accroissemements. Proposition 2.2.4 Soit X. un processus à accroissements indépendants et stationnaires. La loi de X. est caractérisée par les lois des variables aléatoires Xt − X0 , pour t ≥ 0, et celle de X0 . Preuve. Considérons un n-uplet 0 ≤ t1 ≤ · · · ≤ tn . Montrons tout d’abord que l’on connaît la loi du vecteur des accroissements (Xt1 , Xt2 − Xt1 , · · · , Xtn − Xtn−1 ). Nous en déduirons la loi du vecteur (Xt1 , Xt2 , · · · , Xtn ). Comme les variables aléatoires Xt1 , Xt2 − Xt1 , · · · , Xtn −Xtn−1 sont indépendantes, la loi du vecteur (Xt1 , Xt2 −Xt1 , · · · , Xtn −Xtn−1 ) est connue dès lors que l’on connaît les lois des coordonnées : c’est le produit tensoriel de ces lois. De plus la loi de la coordonnée Xtk − Xtk−1 est égale à la loi de Xtk −tk−1 − X0 , qui est supposée connue. Il suffit alors d’utiliser le fait que la loi du vecteur aléatoire (Xt1 , Xt2 , · · · , Xtn ) est caractérisée par sa fonction caractéristique. En effet, nous pouvons remarquer que pour (u1 , · · · , un ) ∈ C et en posant Xt0 = 0, Pn Pn i k=1 (uk +···+un )(Xtk −Xtk−1 ) i (uk +···+un )(Xtk −Xtk−1 ) i k=1 uk Xtk n E e =E e = Πk=1 E e , 40 CHAPITRE 2. POPULATIONS SPATIALES ce qui nous permet finalement de caractériser la loi du vecteur (Xt1 , Xt2 , · · · , Xtn ). Nous sommes alors en mesure de définir le mouvement brownien. Définition 2.2.5 Le mouvement brownien est un processus (Bt , t ∈ R+ ) à accroissements indépendants et stationnaires, presque-sûrement à trajectoires continues, et tel que pour tout temps t fixé, Bt suit la loi N (0, t) normale centrée de variance t. Plus précisément, pour tous s, t ≥ 0, la variable Bt+s − Bt est indépendante des variables (Br : r ≤ t), B0 = 0, et de plus, la loi de l’accroissement Bt+s − Bt est la loi normale N (0, s). Elle ne dépend donc que de s. Remarque 2.2.6 La continuité est redondante dans cette définition, comme nous le verrons ci-dessous au Théorème 2.2.17. Théorème 2.2.7 La loi d’un processus (Bt , t ≥ 0) à accroissements indépendants et stationnaires, nul en 0 et tel que pour tout t, Bt a la loi normale N (0, t), est unique. C’est la loi du mouvement brownien. Preuve. Nous adaptons à ce cas particulier la preuve de la Proposition 2.2.4. Comme nous l’avons vu au Théorème 2.2.2, il suffit de caractériser de manière unique la loi du vecteur (Bt1 , . . . , Btk ), pour tout entier k et pour tous temps t1 , ..., tk . Nous pouvons nous limiter à supposer que 0 ≤ t1 < t2 < . . . < tk , quitte à changer les notations. Mais alors, les variables aléatoires Bt1 , Bt2 − Bt1 , . . . , Btk − Btk−1 sont indépendantes et de lois respectives N (0, t1 ), N (0, t2 − t1 ), . . . , N (0, tk − tk−1 ). Le k-uplet Bt1 , Bt2 − Bt1 , . . . , Btk − Btk−1 a donc pour loi le produit tensoriel des lois. Pour obtenir la loi de (Bt1 , . . . , Btk ), il suffit d’observer que celle-ci est la loi image de la précédente par l’application (x1 , x2 , . . . , xk ) −→ (x1 , x1 + x2 , . . . , x1 + x2 + . . . + xk ). Elle est donc caractérisée de manière unique. Historiquement, le mouvement brownien est associé à l’analyse de mouvements dont la dynamique au cours du temps est si désordonnée qu’il semble difficile de la prévoir, même pour un temps très court. C’est Robert Brown, botaniste anglais, qui décrivit en 1827 le mouvement erratique de fines particules organiques (particules de pollen) en suspension dans un gaz ou un fluide. Ce mouvement très irrégulier ne semblait pas admettre de tangente ; on ne pouvait donc pas parler de sa vitesse, ni a fortiori lui appliquer les lois de la mécanique. Le mouvement brownien fut introduit par Bachelier en 1900 pour modéliser la dynamique du prix des actions à la Bourse. Il fut redécouvert par Einstein en 1905 et est devenu l’un des outils majeurs en physique statistique et dans la modélisation probabiliste. 2.2.2 Convergence vers le mouvement brownien Nous allons montrer dans ce paragraphe l’existence du mouvement brownien, en le construisant comme approximation de marches aléatoires renormalisées en temps et en espace. 2.2. MOUVEMENT BROWNIEN ET DIFFUSIONS 41 Fixons un intervalle de temps [0, t]. Nous allons effectuer un changement d’échelles sur une marche aléatoire simple symétrique afin d’obtenir un objet limite non dégénéré. Soit (Zn )n une suite de variables aléatoires indépendantes et équidistribuées, telles que 1 P(Z1 = 1) = P(Z1 = −1) = . 2 Nous changeons le temps de telle sorte que les sauts aient lieu à tous les temps n1 . Il y aura donc [nt] sauts sur l’intervalle [0, t], (où [nt] désigne la partie entière de nt). Nous étudions alors la marche aléatoire X introduite au paragraphe précédent, accélérée comme suit : X[nt] = [nt] X Zk ; X0 = 0. k=1 Notre but est d’en connaître le comportement asymptotique, quand n tend vers l’infini. Remarquons que comme l’individu saute tous les temps n1 , cette limite rend les changements de position très rapides. Comme l’espérance de X[nt] est nulle, et que sa variance vaut [nt], la renormalisation naturelle, pour avoir un objet probabiliste convergeant quand n tend vers l’infini, est une échelle spatiale d’ordre √1n . Cette approche intuitive est confirmée par le théorème de la limite centrale. En effet, les variables aléatoires Zk sont indépendantes et de même loi centrée réduite. Donc quand t est fixé, X[nt] loi p →en n→∞ N (0, 1), [nt] (2.2.1) où N (0, 1) désigne une variable aléatoire de loi normale centrée réduite. Nous pouvons alors écrire p X[nt] X[nt] [nt] √ =p √ , n n [nt] √ √ [nt] et en utilisant que √n converge vers t quand n tend vers l’infini, nous en déduisons la Proposition 2.2.8 Pour tout t fixé, la suite de variables aléatoires [nt] Xtn X[nt] 1 X =√ Zk = √ n k=1 n (2.2.2) converge en loi quand n tend vers l’infini, vers une variable aléatoire de loi normale, centrée et de variance t. Remarque 2.2.9 Si nous supposions que les variables aléatoires Zk étaient de moyenne m 6= 0, alors nous aurions un comportement asymptotique différent. En effet, la loi des grands nombres entraînerait la convergence presque-sûre de la suite de variables aléatoires X[nt] X vers mt. Ainsi, la variable aléatoire X[nt] serait d’ordre n et la limite de [nt] serait n n déterministe. 42 CHAPITRE 2. POPULATIONS SPATIALES Remarque 2.2.10 Considérons pour tous n et t fixés, la variable aléatoire Wtn , définie comme étant la variable aléatoire σXtn à valeurs dans √σn Z, perturbée à chaque pas de temps par nb . Alors la suite de variables aléatoires Wtn [nt] X σ b √ Zk + converge en loi vers σN (0, t) + bt, = n n k=1 (2.2.3) quand n tend vers l’infini. La limite est alors la somme d’un terme déterministe qui représente le comportement moyen du processus et d’une variable aléatoire normale qui modélise les fluctuations autour de cette tendance moyenne. Nous pouvons aussi considérer l’approximation linéaire (à trajectoires continues) t 7→ Ytn de t 7→ Xtn définie par X[nt] nt − [nt] Z[nt]+1 . Ytn = √ + √ n n Proposition 2.2.11 Pour chaque t fixé, la suite de variables aléatoires (Ytn ) converge en loi, quand n tend vers l’infini, vers une variable aléatoire de loi normale, centrée et de variance t. 2 nt−[nt] nt−[nt] 1 √ √ √ Preuve. Puisque ≤ n , la quantité E Z[nt]+1 tend vers 0 quand n tend n n √ Z[nt]+1 converge en moyenne vers l’infini. Ainsi, la suite de variables aléatoires nt−[nt] n n quadratique et donc en loi vers 0. Par ailleurs, pour chaque n, les variables aléatoires X[nt] √ n √ et nt−[nt] Z[nt]+1 sont indépendantes. Nous pouvons alors utiliser le théorème de Lévy (voir n [?] Théorème 6.3.9) qui caractérise la convergence en loi de la suite (Ytn )n à l’aide de la convergence des fonctions caractéristiques. Soit u ∈ R. Nous avons X [nt] nt−[nt] iu √n iu √n Z[nt]+1 iuYtn E e =E e E e , t u2 et cette quantité converge vers e− 2 quand n tend vers l’infini. Cela entraîne que pour chaque t fixé, la suite de variables aléatoires (Ytn )n converge en loi vers une variable aléatoire de loi normale N (0, t), centrée et de variance t. Nous allons maintenant étudier la dynamique des processus (t → Xtn ), qui sautent d’une amplitude √1n tous les temps n1 , et de leurs interpolations linéaires continues (t → Ytn ). Nous allons montrer que les deux suites de processus convergent vers la même limite lorsque n tend vers l’infini, et que cette limite est un mouvement brownien. La limite est donc un processus à trajectoires continues en temps. Cela n’est pas surprenant puisque 2.2. MOUVEMENT BROWNIEN ET DIFFUSIONS 43 l’amplitude des sauts de Xtn vaut √1n et tend donc vers 0 quand n tend vers l’infini. Par ailleurs, les intervalles entre les temps de saut sont égaux à n1 et tendent également vers 0. La convergence est illustrée par les simulations données dans les pages suivantes en dimension 1 et dimension 2. ï0 ï2 ï4 ï6 ï8 ï10 ï12 ï14 ï16 0 10 20 30 40 50 60 70 80 90 100 Figure 2.1 – marche aléatoire en dimension 1, n = 100. 8 6 4 2 0 ï2 ï4 ï6 ï8 ï10 0 20 40 60 80 100 120 140 160 180 200 Figure 2.2 – marche aléatoire en dimension 1, n = 200. Pour prouver cette approximation, nous devons définir une notion de convergence en loi pour une suite de processus stochastiques (Ztn , t ∈ R+ )n lorsque n tend vers l’infini. Il existe des définitions de convergence fonctionnelle, qui dépassent le cadre mathématique de cet ouvrage (voir par exemple [7] ou [13] ou [24]). Nous nous intéresserons ici à la convergence en loi au sens des marginales fini-dimensionnelles. Définition 2.2.12 On dit que la suite de processus (Ztn , t ≥ 0)n converge en loi au sens des marginales de dimension finie vers le processus (Zt , t ≥ 0) si pour tout p-uplet de temps 0 ≤ t1 < t2 < · · · < tp , le p-uplet de variables aléatoires (Ztn1 , Ztn2 , · · · , Ztnp ) converge en loi, lorsque n tend vers l’infini, vers le p-uplet (Zt1 , Zt2 , · · · , Ztp ). 44 CHAPITRE 2. POPULATIONS SPATIALES 1.0 0.8 0.6 0.4 0.2 0.0 ï0.2 0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0 Figure 2.3 – mouvement brownien en dimension 1 Remarque 2.2.13 Comme nous l’avons rappelé ci-dessus (Théorème 2.2.2), la loi d’un processus stochastique Z est caractérisée par la loi de tous les p-uplets (Zt1 , Zt2 , · · · , Ztp ). Ceci entraîne donc que la convergence en loi d’une suite de processus, au sens des marginales fini-dimensionnelles, permet d’en caractériser la limite (en loi). Théorème 2.2.14 Les suites de processus (Xtn , t ≥ 0)n et (Ytn , t ≥ 0)n convergent en loi, au sens des marginales fini-dimensionnelles, vers un mouvement brownien (Bt , t ≥ 0). Preuve. Nous avons montré précédemment la convergence t par t. Considérons maintenant une suite finie de temps 0 ≤ t1 < t2 < · · · < tp . Nous savons que les variables Xtn1 , Xtn2 − Xtn1 , · · · , Xtnp − Xtnp−1 sont indépendantes, et de plus, 1 Xtnj − Xtnj−1 = √ Z[ntj−1 ]+1 + · · · + Z[ntj ] n p [ntj ] − [ntj−1 ] Z[ntj−1 ]+1 + · · · + Z[ntj ] √ p × . = n [ntj ] − [ntj−1 ] √ Le premier terme du membre de droite tend vers tj − tj−1 et le deuxième converge en loi vers une variable aléatoire normale centrée réduite. Comme précédemment, et puisque les coordonnées sont indépendantes, nous en déduisons (par une nouvelle utilisation du Théorème de Lévy), que loi (Xtn1 , Xtn2 − Xtn1 , · · · , Xtnp − Xtnp−1 ) −→en n→∞ (N (0, t1 ), N (0, t2 − t1 ), · · · , N (0, tp − tp−1 )) et que les coordonnées limites sont indépendantes. Mais alors, Xtn2 = Xtn1 + (Xtn2 − Xtn1 ) ; · · · ; Xtnp = Xtn1 + · · · + (Xtnp − Xtnp−1 ) 2.2. MOUVEMENT BROWNIEN ET DIFFUSIONS 45 Marche 2D 40 30 20 10 0 ï10 ï20 ï30 ï40 ï50 ï40 ï30 ï20 ï10 0 10 20 30 40 50 Figure 2.4 – marche aléatoire en dimension 2 0.5 0.0 ï0.5 ï1.0 ï1.6 ï1.4 ï1.2 ï1.0 ï0.8 ï0.6 ï0.4 ï0.2 0.0 0.2 Figure 2.5 – mouvement brownien en dimension 2 et par suite, loi (Xtn1 , Xtn2 , · · · , Xtnp ) −→en n→∞ (Bt1 , Bt2 , · · · , Btp ). Le vecteur (Bt1 , Bt2 , · · · , Btp ) est tel que les accroissements (Bt1 , Bt2 −Bt1 , · · · , Btp −Btp−1 ) sont indépendants. De plus, pour chaque t > 0, la variable aléatoire Bt suit la loi normale centrée de variance t. La loi de (Bt1 , Bt2 , · · · , Btp ) est donc bien la loi des marginales aux temps 0 ≤ t1 < t2 < · · · < tp d’un mouvement brownien, (voir Théorème 2.2.7). 2.2.3 Quelques propriétés du mouvement brownien • A l’aide de la définition du mouvement brownien (Définition 2.2.5), nous pouvons montrer les deux propriétés fondamentales suivantes, dont la preuve est laissée en exercice (voir Exercice 2.6.5). Proposition 2.2.15 Soit (Bt , t ≥ 0) un mouvement brownien. (i) Propriété de symétrie : Le processus B 0 défini pour tout t > 0 par Bt0 = −Bt , est un mouvement brownien. 46 CHAPITRE 2. POPULATIONS SPATIALES (ii) Propriété d’auto-similarité : Pour tout c > 0, le processus B (c) défini pour tout t > 0 (c) par Bt = 1c Bc2 t , est un mouvement brownien. La propriété d’auto-similarité justifie l’aspect fractal des trajectoires du mouvement brownien. • Nous pouvons facilement calculer la covariance de Bt et Bs pour tous t, s > 0 : E(Bt Bs ) = t ∧ s. En effet, si s < t, puisque les accroissements sont indépendants, E(Bt Bs ) = E((Bt − Bs )Bs + Bs2 ) = E(Bt − Bs ) E(Bs ) + E(Bs2 ) = s. • Il est également possible de décrire le comportement en temps long du mouvement brownien grâce à la “loi du logarithme itéré” suivante. Proposition 2.2.16 Bt Bt P lim sup √ = 1 et lim inf √ = −1 = 1. t→+∞ t→+∞ 2t ln ln t 2t ln ln t (2.2.4) √ Ainsi, |Bt | se comporte presque-sûrement comme 2t ln ln t quand t tend vers l’infini. La preuve de la Proposition 2.2.16 sera développée dans l’Exercice 2.6.8. • Etudions maintenant les propriétés de régularité des trajectoires du mouvement brownien. Remarquons tout d’abord qu’il n’est pas nécessaire d’inclure la continuité des trajectoires dans la définition du mouvement brownien. En effet, si un processus vérifie toutes les propriétés de la Définition 2.2.5 sauf la continuité, il admet une modification à trajectoires continues, au sens où il existe une fonction aléatoire W à valeurs dans l’ensemble des fonctions continues telle que P(∀ t ≥ 0, Bt = Wt ) = 1. La preuve de ce résultat est fondée sur le critère suivant, appelé critère de continuité de Kolmogorov. Théorème 2.2.17 Critère de continuité de Kolmogorov. Soit X : Ω × [0, 1] → R un processus stochastique et supposons qu’il existe trois constantes strictement positives γ, β, C avec, pour tous 0 ≤ s, t ≤ 1, E(|Xt − Xs |γ ) ≤ C |t − s|1+β . (2.2.5) Alors X admet une modification presque-sûrement à trajectoires continues. La grande force de ce théorème est qu’il caractérise une propriété de régularité de trajectoire (donc ω par ω) par une propriété des moments du processus. Il faut exiger un peu plus qu’une simple lipschitzianité de ces moments, mais pas beaucoup plus. Bien sûr, on généraliser l’intervalle de temps [0, 1] à tout intervalle de temps [0, T ]. 2.2. MOUVEMENT BROWNIEN ET DIFFUSIONS 47 Preuve. Nous allons montrer que X admet une modification X̃ qui a une trajectoire höldérienne pour tout ordre α < βγ . Introduisons l’ensemble D des points dyadiques de 2 ; |s − t| = [0, 1] : D = ∪m Dm , où Dm = {2−m i; i entier ∈ [0, 2m ]}. Soit ∆m = {(s, t) ∈ Dm −m m+1 2 }. il y a moins de 2 telles paires. Posons Km = sup(s,t)∈∆m |Xs − Xt |. Par hypothèse, on a X γ )≤ E(|Xs − Xt |γ ) ≤ C2−m(1+β) .2m+1 = 2C 2−mβ . E(Km (s,t)∈∆m Pour tout point s (resp. t) de D, il existe une suite croissante (sn ) de D, (resp. (tn )), telle que pour tout n, sn ≤ s, tn ≤ t avec sn , tn ∈ Dn et sn = s (resp. tn = t) pour un n. Soit maintenant (s, t) ∈ D2 avec |s − t| ≤ 2−m , on a sm = tm ou (sm , tm ) ∈ ∆m . Dans tous les cas, nous avons Xs − Xt = ∞ X (Xsi+1 − Xsi ) + Xsm − Xtm + i=m ∞ X (Xti+1 − Xti ), i=m où les séries sont en fait des sommes finies. Nous en déduisons que ∞ X |Xs − Xt | ≤ Km + 2 Ki ≤ 2 i=m+1 ∞ X Ki . i=m Définissons Mα = sup {|Xs − Xt |/|s − t|α ; s, t ∈ D, s 6= t}. Nous avons ( ) 2(m+1)α Mα ≤ sup |Xs − Xt |; s, t ∈ D, s 6= t sup |s−t|≤2−m m∈N ∞ X ( ≤ sup 2.2(m+1)α m∈N (α+1) ≤ 2 !) Ki i=m ∞ X 2i α Ki . i=0 Pour γ ≥ 1 et α < β/γ, nous avons γ 1/γ E((Mα ) ) (α+1) ≤2 ∞ X iα 2 γ 1/γ E((Ki ) ) (α+1) ≤2 i=0 (2C) 1/γ ∞ X 2i (α−(β/γ)) < +∞. i=0 Pour γ < 1, le même raisonnement s’applique à E((Mα )γ ). Ainsi, pour presque tout ω, X est uniformément continu sur D. Nous allons alors poser, pour un tel ω et t ∈ [0, 1], X̃t (ω) = lim Xs (ω). s→t,s∈D En effet, l’uniforme continuité et le critère de Cauchy impliquent que Xsn (ω) admet une limite, indépendante de toute suite sn ∈ D et convergeant vers t. Observons que trivialement, X̃t = Xt pour t ∈ D. De plus, si t ∈ / D et si sn ∈ D est une suite convergeant vers t, 48 CHAPITRE 2. POPULATIONS SPATIALES alors par définition, Xsn converge presque-sûrement vers X̃t . Par ailleurs, par hypothèse, P(|Xt − Xsn | > ε) ≤ Cε−γ |t − sn |1+β , et Xsn converge en probabilités vers Xt . Nous en déduisons que X̃ est clairement la modification désirée. Dans le cas du mouvement brownien, la variable aléatoire Bt −Bs est une variable aléatoire normale centrée de variance |t − s|, donc E(|Bt − Bs |4 ) = 3 (t − s)2 . Nous en déduisons immédiatement le corollaire suivant. Corollaire 2.2.18 Les trajectoires du mouvement brownien sont presque-sûrement continues. Elles sont même höldériennes d’ordre α pour tout α < 1/2 au sens où, pour presque tout ω, il existe une constante C(ω) telle que pour tous 0 ≤ s, t ≤ T , |Bt (ω) − Bs (ω)| ≤ C(ω) |t − s|α . En dehors de ces résultats de continuité, les propriétés de régularité du mouvement brownien sont très mauvaises. Remarquons tout d’abord que B a peu de chances d’être à variation finie. En effet, puisque E(|Bi/n − B(i−1)/n |2 ) = n1 , |Bi/n − B(i−1)/n | est d’ordre P[nt] √ √1 et n et ne convergera pas quand n tend vers i=1 |Bi/n − B(i−1)/n | sera d’ordre n l’infini. En revanche nous allons montrer que la situation est différente si l’on considère la “variation quadratique approchée de B au niveau n”, comme étant le processus [nt] X V (B, n)t = (Bi/n − B(i−1)/n )2 , (2.2.6) i=1 où [nt] est la partie entière de nt. L’indépendance des accroissements du mouvement brownien va nous permettre de montrer la Proposition 2.2.19 Pour tout t > 0, la suite de variables aléatoires (V (B, n)t )n définie par (2.2.6) converge vers t dans L2 , quand n tend vers l’infini. On appelle variation quadratique du mouvement brownien cette limite et on note hB, Bit = t. Remarquons que cette variation quadratique est déterministe. C’est en particulier ce qui donne un caractère intrinsèque au mouvement brownien : un processus continu qui est une martingale (cf. Définition 2.3.2) et qui a pour variation quadratique le processus t 7→ t, est un mouvement brownien. Preuve. Chaque accroissement Bi/n − B(i−1)/n est de loi normale N (0, 1/n) et donc . Nous écrivons alors E(V (B, n)t ) = [nt] n 2 2 ! [nt] [nt] E (V (B, n)t − t)2 ≤ 2 E V (B, n)t − + −t . (2.2.7) n n 2.2. MOUVEMENT BROWNIEN ET DIFFUSIONS 49 Comme les accroissements (Bi/n − B(i−1)/n )2 − n1 sont indépendants et que 2 4 E (Bi/n − B(i−1)/n ) = n1 et E (Bi/n − B(i−1)/n ) = n32 , nous pouvons en déduire les calculs suivants. 2 ! [nt] [nt] X X 2 1 2 2 [nt] = E Bi/n − B(i−1)/n − E Bi/n − B(i−1)/n − n n i=1 i=1 [nt] X 4 1 E Bi/n − B(i−1)/n − 2 = n i=1 = 2 × [nt]. n2 et converge vers 0 quand n tend vers l’infini. Ainsi, E (V (B, n)t − t)2 est équivalent à 2t n Nous en déduisons que la variation quadratique du mouvement brownien sur [0, t] est le processus identité. Une conséquence fondamentale, qui montre la grande irrégularité des trajectoires du mouvement brownien, est la proposition suivante. Proposition 2.2.20 Les trajectoires t 7→ Bt sont presque-sûrement nulle part dérivables. Remarque 2.2.21 Pour cette raison, nous ne pourrons pas définir simplement l’intégrale Rt f (s)dBs (ω), pour ω donné. Cela va justifier ultérieurement la construction de l’intégrale 0 stochastique. Preuve. Nous savons que la convergence dans L2 d’une suite de variables aléatoires entraîne la convergence presque-sûre d’une sous-suite. Ainsi, nous déduisons de la Proposition 2.2.19 qu’en dehors d’un ensemble de probabilité nulle, et pour toute paire de nombres rationnels p, q, il existe une subdivision (ti )i de pas n1 de [p, q] telle que lim [nq] X n→+∞ Bti (ω) − Bti−1 (ω) 2 = q − p. i=[np] Si nous avions |Bt (ω) − Bs (ω)| ≤ k|t − s| pour p ≤ s < t ≤ q, nous en déduirions que [nq] X i=[np] Bti (ω) − Bti−1 (ω) 2 ≤ k 2 (q − p) sup |ti − ti−1 | = i k 2 (q − p) . n Quand n → ∞, le fait que le terme de gauche tende vers une limite finie non nulle entraînerait une contradiction. Les trajectoires du mouvement brownien ne peuvent donc être lipschitziennes sur aucun sous-intervalle [p, q] de R+ , avec p et q nombres rationnels. Par densité de Q dans R, nous en déduisons que les trajectoires du mouvement brownien sont presque-sûrement nulle part dérivables. 50 2.2.4 CHAPITRE 2. POPULATIONS SPATIALES Propriété de Markov et mouvement brownien Nous avons défini en Section 2.1.1 ce qu’est la filtration associée à une chaîne de Markov, ou plus généralement associée à un processus indexé par le temps discret. C’est une suite croissante (pour l’inclusion) de tribus qui modélise l’évolution de l’information donnée par le processus au cours du temps. Nous allons généraliser cette notion pour un processus indexé par le temps continu. Remarque 2.2.22 Dans toute la suite, les processus que nous considérerons aurons presque-sûrement des trajectoires continues à droite et limitées à gauche. Cette propriété de régularité en temps est fondamentale pour que les propriétés liées à la notion de markovianité ou à celle de martingale aient un sens. Cette propriété d’être continu à droite et limité à gauche (càdlàg) sera donc implicite dans la suite de cet ouvrage. Définition 2.2.23 Soit X = (Xt )t≥0 un processus stochastique défini sur un espace de probabilité (Ω, A, P ). On appelle filtration engendrée par X la famille croissante (F X t )t≥0 , X où F X est la tribu engendrée par les variables aléatoires {X , s ≤ t}. La tribu F s t t est la plus petite tribu rendant mesurables les variables Xs , pour s ≤ t. Elle décrit les événements réalisés par le processus avant l’instant t. Nous pouvons généraliser la notion de propriété de Markov au cas du temps continu. Définition 2.2.24 Un processus (Xt , t ≥ 0) satisfait la propriété de Markov si pour tous s, t ≥ 0, et pour toute fonction f mesurable bornée sur R, E(f (Xt+s )|F X t ) = E(f (Xt+s )|Xt ). (2.2.8) Le processus X est alors appelé processus de Markov. La formule (2.2.8) entraîne en particulier que l’espérance conditionnelle de f (Xt+s ) sachant F X t est une fonction mesurable de Xt . Cette fonction dépend a priori de s et de t. Un cas particulier important est celui où elle ne dépend que du temps s, c’est à dire de l’accroissement entre t et t + s. Définition 2.2.25 Si pour tous s et t, il existe une fonction mesurable bornée hs sur R, telle que E(f (Xt+s )|F X t ) = hs (Xt ), le processus X est appelé processus de Markov homogène en temps. Introduisons la famille d’opérateurs (Pt )t≥0 , définis pour toute fonction mesurable bornée f et tout x ∈ R par Pt f (x) = E(f (Xt )|X0 = x). (2.2.9) 2.2. MOUVEMENT BROWNIEN ET DIFFUSIONS 51 Nous avons alors que hs (x) = Ps f (x) et donc E(f (Xt+s )|F X t ) = Ps f (Xt ). (2.2.10) Le grand intérêt de cette famille d’opérateurs (Pt )t est qu’elle suffit à caractériser la loi du processus X. En effet, si 0 < s < t et si f et g sont deux fonctions mesurables bornées et x ∈ R, on a grâce à la propriété de Markov et à (2.2.10) E(f (Xs ) g(Xt )|X0 = x) = = = = E(E(f (Xs ) g(Xt ) |F X s ) |X0 = x) E(f (Xs ) E(g(Xt ) |F X s ) |X0 = x) E(f (Xs ) Pt−s g(Xs ) |X0 = x) Ps (f Pt−s g)(x). Les marginales bi-dimensionnelles de X sont donc caractérisées par le semi-groupe (Pt )t . Il est facile de montrer qu’il en est de même des marginales d-dimensionnelles, ce qui caractérise la loi du processus. (Voir Théorème 2.2.2). Nous pouvons également montrer que la famille (Pt )t vérifie la propriété dite de semigroupe : Pt+s f (x) = Pt (Ps f )(x) = Ps (Pt f )(x) ; P0 f (x) = f (x). En effet, de la même façon que ci-dessus, nous avons Pt+s f (x) = E(f (Xt+s ) |X0 = x) = E( E(f (Xt+s ) |F X t ) |X0 = x) = E(Ps f (Xt ) |X0 = x) = Pt (Ps f )(x). Définition 2.2.26 La famille d’opérateurs (Pt )t≥0 définie par (2.2.9) est appelée le semigroupe de transition du processus de Markov homogène X. Théorème 2.2.27 Le mouvement brownien est un processus de Markov homogène, de semi-groupe de transition défini pour f mesurable bornée par : pour tout x ∈ R, t > 0, Z (y − x)2 1 exp(− ) dy. (2.2.11) Pt f (x) = E(f (Bt ) |B0 = x) = f (y) √ 2t 2πt R Preuve. Considérons un mouvement brownien B sur (Ω, A, P ), et (F t )t≥0 la filtration qu’il engendre. Puisqu’il est à accroissements indépendants, la variable Y = Bt+s − Bs est indépendante de la tribu F s et a pour loi la loi normale N (0, t). Ainsi pour chaque fonction f borélienne bornée sur R, pour tous t, s > 0, Z 1 −x2 /2t √ E(f (Bt+s )|F s ) = E(f (Bs + Y )|F s ) = e f (Bs + x) dx. (2.2.12) 2πt R Cette formule montre que conditionnellement à F s , la loi de Bt+s ne dépend pas de tout le passé (i.e. de toutes les variables Br pour r ≤ s), mais seulement de la valeur “présente” 52 CHAPITRE 2. POPULATIONS SPATIALES Bs du processus, à travers une fonction de l’accroissement t. Le mouvement brownien est donc un processus de Markov homogène, de semi-groupe de transition donné par (2.2.11). R Remarquons que pour le mouvement brownien, Pt f (x) = R f (y)p(t, x, y)dy, avec p(t, x, y) = √ 1 (y − x)2 exp(− ). 2t 2πt (2.2.13) La fonction p(t, x, .) est la densité au temps t du mouvement brownien, issu de x au temps 0. En utilisant (2.2.13), il est facile de montrer par des calculs simples que si f est une R fonction continue bornée, la fonction u(t, x) = Pt f (x) = p(t, x, y) f (y)dy est l’unique solution régulière de l’équation aux dérivées partielles 1 ∂ 2u ∂u = ∂t 2 ∂x2 ; u(0, x) = f (x), x ∈ R. (2.2.14) Cette équation aux dérivées partielles s’appelle l’équation de la chaleur. Nous avons donc exhibé une solution probabiliste à cette équation, à savoir u(t, x) = E(f (Bt )|B0 = x). La définition du mouvement brownien se généralise au cas multi-dimensionnel. Définition 2.2.28 Un mouvement brownien d-dimensionnel est un d-uplet B = (B i )1≤i≤d de d mouvements browniens à valeurs réelles B i = (Bti )t≥0 , qui sont indépendants entre eux. Ce processus est encore un processus de Markov homogène et un processus à accroissements indépendants stationnaires. Son semi-groupe est alors défini pour φ mesurable bornée sur Rd , x ∈ Rd et t > 0, par Z Pt φ(x) = φ(y) Rd 1 ky − xk2 exp(− ) dy, (2πt)d/2 2t (2.2.15) où k.k désigne la norme euclidienne et dy la mesure de Lebesgue sur Rd . Comme en dimension 1, le mouvement brownien admet une densité en chaque temps t > 0, qui permet d’obtenir la solution explicite de l’équation de la chaleur en dimension d ∂u 1 = ∆u ; u(0, x) = φ(x), x ∈ Rd . ∂t 2 (2.2.16) 2.3. MARTINGALES ET TEMPS D’ARRÊT 2.3 53 Martingales et temps d’arrêt Nous allons mettre en évidence une propriété fondamentale du mouvement brownien concernant le comportement de ses fluctuations, à savoir la propriété de martingale. Soit (Bt , t ≥ 0) un mouvement brownien et notons par (F t )t la filtration engendrée par ce mouvement brownien : F t = σ(Bs , s ≤ t) est la tribu engendrée par {Bs , s ≤ t} (voir Définition 2.2.23). Nous remarquons facilement que le mouvement brownien satisfait les propriétés suivantes : pour tous s ≤ t, E(Bt |F s ) = Bs , E(Bt2 − t |F s ) = Bs2 − s. (2.3.1) (2.3.2) En effet, E(Bt |F s ) = E(Bs + Bt − Bs ) = Bs + E(Bt − Bs ) = Bs ; E(Bt2 − t |F s ) = E((Bt − Bs )2 + 2Bs (Bt − Bs ) + Bs2 − t) = t − s + Bs2 − t = Bs2 − s. 2.3.1 Martingales La propriété (2.3.1) satisfaite par le mouvement brownien signifie que les fluctuations aléatoires futures du mouvement brownien conditionnellement à l’information donnée par le processus jusqu’au temps s sont d’espérance nulle. La propriété (2.3.1) caractérise une classe de processus qui est fondamentale en probabilité : les martingales. Définition 2.3.1 Un processus (Xt , t ≥ 0) est dit adapté à une filtration (F t ) si pour t, Xt est F t -mesurable, c’est-à-dire que pour tout borélien A de R, l’événement {Xt ∈ A} appartient à F t . (L’information concernant Xt est contenue dans F t ). Dans ce paragraphe, tout processus X sera supposé adapté à la filtration (F t )t du mouvement brownien B, ce qui signifie que les événements du type {Xt ∈ A} peuvent s’exprimer à partir de la connaissance de la trajectoire brownienne B jusqu’au temps t. Définition 2.3.2 Un processus à valeurs réelles M = (Mt )t≥0 , adapté à (F t ), est une martingale si chaque variable Mt est intégrable, et si s≤t =⇒ E(Mt |F s ) = Ms . (2.3.3) En particulier, l’espérance E(Mt ) d’une martingale ne dépend pas de t : pour tout t, E(Mt ) = E(M0 ). (2.3.4) 54 CHAPITRE 2. POPULATIONS SPATIALES Cette notion généralise la notion de martingale à temps discret. Pour plus de détails, nous renvoyons en particulier aux livres suivants (mais cela n’est pas exhaustif) : Neveu [34], Benaim-El Karoui [5], Shreve-Karatzas [24], Revuz-Yor [39]. Voyons tout d’abord quelques exemples fondamentaux de martingales adaptées à la filtration brownienne. Proposition 2.3.3 Les trois processus F t -adaptés suivants sont des martingales. 1. Le mouvement brownien (Bt , t ≥ 0). 2. Le processus (Mt , t ≥ 0) défini pour tout t par Mt = Bt2 − t. 3. Le processus (Mtλ , t ≥ 0) défini par Mtλ = exp(λBt − λ2 t) 2 , pour tout λ ∈ R. Preuve. Les propriétés (2.3.1) et (2.3.2) entraînent de manière immédiate que les processus B et M sont des martingales. De plus, il est clair que pour tout λ > 0, M λ est F t -adapté et que Mtλ est intégrable, puisque E(|Mtλ |) = E(Mtλ ) = 1. En effet, il est facile λ2 σ 2 2 de vérifier que pour une variable aléatoire U de loi N (0, σ ), E(exp(λU )) = exp 2 . 2 Considérons s ≤ t, nous pouvons écrire E Mtλ |F s = Msλ E exp(λ(Bt − Bs ) − λ2 (t − s)) , 2 puisque Bt − Bs est indépendant de F s . Comme E exp(λ(Bt − Bs ) − λ2 (t − s)) = 1, nous en déduisons que E Mtλ |F s = Msλ . Nous avons en fait une réciproque de cette proposition, qui est une caractérisation du mouvement brownien due à Paul Lévy. Proposition 2.3.4 Soit (Mt )t≥0 un processus stochastique à valeurs réelles et à trajectoires presque-sûrement continues. Les deux propriétés suivantes sont équivalentes : (i) (Mt )t≥0 et (Mt2 − t)t≥0 sont des martingales pour la filtration engendrée par M . (ii) (Mt )t≥0 est un mouvement brownien. Il suffit de prouver (i) =⇒ (ii). Le résultat sera prouvé dès lors que l’on peut montrer λ2 que pour tout 0 ≤ s ≤ t, E(eλ(Mt −Ms ) |Fs ) = e 2 (t−s) . L’idée intuitive de la preuve est simple : faire un développement limité à l’ordre 2 de eλx et utiliser (i). Néanmoins les détails techniques sont nombreux et nous renvoyons au livre de Comets-Meyre [10]. Une autre preuve moins élémentaire consiste à utiliser le calcul stochastique. 2.3.2 Inégalités fondamentales Une des raisons qui font que les martingales sont centrales dans la théorie des probabilités est qu’elles permettent d’obtenir des inégalités très utiles en pratique. Nous supposons ici que ces inégalités sont connues pour le temps discret, (voir par exemple Jacod-Protter 2.3. MARTINGALES ET TEMPS D’ARRÊT 55 [22]). Elles seront donc vraies pour un processus à temps continu restreint aux temps rationnels. Puisque que tous les processus sont continus à droite et limités à gauche, les résultats se généralisent à tout temps par un passage à la limite, ce qui est possible du fait de la régularité. Les inégalités ci-dessous sont connues sous le nom d’inégalités de Doob. Proposition 2.3.5 Considérons une martingale (Mt , t ≥ 0). Nous avons alors pour tout α > 0 et tout p > 1, E(|Mt |) α (2.3.5) p E(|Mt |p ). p−1 (2.3.6) P(sup |Ms | ≥ α) ≤ s≤t et E((sup |Ms |)p ) ≤ s≤t Il est facile de montrer par l’inégalité de Jensen que pour s < t, E(|Mt | |Fs ) ≥ |Ms | et donc que t → E(|Mt |) est croissante. La grande force de ces inégalités est de pouvoir, en quelque sorte, échanger l’espérance et le supremum. 2.3.3 Le comportement d’une martingale à l’infini L’une des plus puissantes propriétés des martingales est le théorème suivant, qui montre que l’on connaît le comportement en temps long d’une martingale dont les premiers moments E(|Mt |) sont uniformément bornés (en t). Ce théorème a beaucoup d’applications. La preuve généralise celle du théorème analogue pour les martingales à temps discret et utilise certaines variations des inégalités fondamentales de martingales. Nous ne la développerons pas dans ce livre et nous renvoyons à l’une des références indiquées ci-dessus. Théorème 2.3.6 Si (Mt , t ≥ 0) est une martingale satisfaisant sup E(|Mt |) < +∞, (2.3.7) t∈R+ alors il existe une variable aléatoire M∞ ∈] − ∞, +∞[ intégrable telle que Mt converge presque-sûrement vers M∞ quand t tend vers l’infini. Remarque 2.3.7 Ce théorème est l’un des rares résultats de convergence presque-sure en temps long. C’est pourquoi de nombreuses preuves pour prouver la convergence d’un processus quand le temps tend vers l’infini, consistent à mettre en évidence une martingale et à lui appliquer ensuite le Théorème 2.3.6 . Observons que la propriété d’intégrabilité (2.3.7) n’est pas vraie pour le mouvement browp nien B, pour lequel E(|Bt |) = 2t/π, ni pour le processus M de la Proposition 2.3.3, pour 56 CHAPITRE 2. POPULATIONS SPATIALES lequel E(|Mt |) = ct pour une constante c > 0, tandis qu’elle est vraie pour le troisième exemple. En effet, pour tout λ, E(|Mtλ |) = E(Mtλ ) = 1. Dans ce cas, le théorème 2.3.6 λ implique que pour chaque nombre réel λ, il existe M∞ ∈] − ∞, +∞[ telle que Mtλ converge λ presque-sûrement vers M∞ quand t tend vers l’infini. On peut de plus montrer dans ce dernier cas, en utilisant la loi du logarithme itéré (énoncée λ λ en Proposition 2.2.16), que M∞ = 0 si λ 6= 0, et que par ailleurs, M∞ = 1 si λ = 0, puisque Mt0 = 1 pour tout t. Ainsi, l’égalité (3.1.11) est clairement fausse quand t = ∞, sauf dans le cas où λ = 0. Une question importante est de savoir quand l’égalité (2.3.3) reste vraie pour t = ∞. Comme nous venons de le remarquer grâce à l’exemple 3, les hypothèses doivent être strictement plus fortes que l’hypothèse d’intégrabilité (2.3.7). La bonne hypothèse est une hypothèse d’uniforme intégrabilité que nous définissons maintenant. Définition 2.3.8 On dit que le processus (Mt , t ∈ R+ ) est uniformément intégrable si pour tout A > 0, lim sup E(|Mt | 1|Mt |>A ) = 0. (2.3.8) A→∞ t∈R+ Théorème 2.3.9 Si la martingale M est uniformément intégrable, alors Mt converge presque-sûrement vers M∞ quand t tend vers l’infini et pour tout t > 0, Mt = E(M∞ |F t ). (2.3.9) E(M∞ ) = E(M0 ). (2.3.10) En particulier, Corollaire 2.3.10 Les propriétés (2.3.9) et (2.3.10) sont satisfaites dès lors que la martingale M satisfait l’une des trois propriétés suivantes : 1) La martingale M est bornée, au sens où il existe K > 0 tel que ∀ ω, ∀ t, |Mt (ω)| ≤ K. (2.3.11) 2) La martingale M est uniformément de carré intégrable, au sens où elle vérifie la propriété supt∈R+ E(Mt2 ) < +∞. 3) La martingale est définie sur un intervalle de temps borné [0, T ]. Preuve. (du Corollaire 2.3.10). Il suffit de vérifier que chacun des trois cas entraîne l’uniforme intégrabilité de la martingale M . C’est évident pour une martingale bornée. Dans le deuxième cas, il suffit de vérifier que A E(|Mt | 1|Mt |>A ) ≤ E(Mt2 ). Dans le troisième cas, nous pouvons tout d’abord remarquer que pour tout t ∈ [0, T ], E(|Mt |) ≤ E(|MT |) 2.3. MARTINGALES ET TEMPS D’ARRÊT 57 et donc P(|Mt | > A) converge vers 0 uniformément sur [0, T ], quand A tend vers l’infini. Comme MT est intégrable, cela permet également de conclure par convergence dominée qu’il en est de même de E(|MT | 1|Mt |>A ). Il suffit alors pour conclure d’écrire : E(|Mt | 1|Mt |>A ) = E(|E(MT | F t )| 1|Mt |>A ) ≤ E(E(|MT | | F t ) 1|Mt |>A ) = E(|MT | 1|Mt |>A ). Preuve. (du Théorème 2.3.9). Comme M est uniformément intégrable, nous pouvons écrire E(|Mt |) = E(|Mt | 1|Mt |≤A ) + E(|Mt | 1|Mt |>A ) ≤ A + E(|Mt | 1|Mt |>A ), d’où nous déduisons que (2.3.7) est satisfaite et que M∞ existe et est d’espérance finie. Montrons (2.3.9). Soit F ∈ F s un événement aléatoire. Nous voulons montrer que E(M∞ 1F ) = E(Ms 1F ). Nous savons que pour tout t > s, E(Mt 1F ) = E(Ms 1F ). Il s’agit donc de faire tendre t vers l’infini. Remarquons que c’est immédiat si M est bornée, en appliquant le théorème de convergence dominée. Sous l’hypothèse d’uniforme intégrabilité, l’idée intuitive est la suivante : sur l’événement |Mt | ≤ A, on peut se ramener à l’argument précédent et l’événement complémentaire |Mt | > A est "uniformément" négligeable pour A suffisamment grand. Développons plus précisément cette idée : soit ε, A > 0, E(|Mt − M∞ | 1F ) = E(|Mt − M∞ | 1F 1|Mt −M∞ |≤ε ) + E(|Mt − M∞ | 1F 1|Mt −M∞ |>ε ) ≤ ε + E(|M∞ | 1F 1|Mt −M∞ |>ε ) + E(|Mt | 1F 1|Mt −M∞ |>ε ). La convergence presque-sûre de Mt vers M∞ entraîne sa convergence en probabilité et P(|Mt − M∞ | > ε) tend vers 0 quand t tend vers l’infini (pour tout ε > 0 fixé). Puisque M∞ est intégrable, le second terme de l’expression ci-dessus tend donc vers 0 (par théorème de convergence dominée). Etudions le troisième terme. Nous avons E(|Mt | 1F 1|Mt −M∞ |>ε ) = E(|Mt | 1F 1|Mt −M∞ |>ε 1|Mt |>A ) + E(|Mt | 1F 1|Mt −M∞ |>ε 1|Mt |≤A ). Le premier terme est inférieur à E(|Mt | 1|Mt |>A ) et tend vers 0 uniformément en t quand A tend vers l’infini et le second terme est inférieur à A P(|Mt − M∞ | > ε). Regroupant toutes ces informations, avec ε suffisamment petit, nous en déduisons le résultat. Remarque 2.3.11 Si Y est une variable aléatoire intégrable, nous remarquons que le processus M défini par Mt = E(Y |F t ) est une martingale vérifiant la propriété (2.3.7). En effet, pour tout t > 0, E(|Mt |) = E(|E(Y |F t )|) ≤ E(|Y |) < +∞. 58 CHAPITRE 2. POPULATIONS SPATIALES Cela s’applique en particulier si Y est l’indicatrice d’un événement aléatoire. Dans ce cas, puisque Y ≤ 1, M est une martingale bornée et est donc une martingale jusqu’à l’infini. Supposons par exemple que la taille d’une population au temps t soit représentée par un processus de markov Xt et que Y soit l’indicatrice de l’événement "Extinction de la population", c’est-à-dire l’événement {limt→∞ Xt = 0}. Alors, si u(x) désigne la probabilité d’extinction quand la population initiale est de taille x, nous en déduirons par la propriété de Markov que Mt = u(Xt ) définit une martingale bornée. 2.3.4 Le théorème d’arrêt Comme dans le cas discret, les temps d’arrêt jouent un rôle très important en théorie des probabilités. Nous allons montrer ici que la propriété de martingale s’étend sous certaines hypothèses aux temps d’arrêt, et nous en verrons des applications importantes aux temps d’atteinte de domaines. La définition d’un temps d’arrêt en temps continu généralise celle du cas discret. Définition 2.3.12 Etant donnée une filtration (F t ), une variable aléatoire T ∈ [0, +∞] est un temps d’arrêt si l’événement {T ≤ t} appartient à F t pour tout t ≥ 0. En dehors des temps constants, l’exemple fondamental de temps d’arrêt est le temps d’atteinte d’un ensemble fermé A par un processus adapté continu X. Proposition 2.3.13 Soit (Xt , t ≥ 0) un processus continu. Soit A un ensemble fermé de R. Définissons le temps d’entrée de X dans A par TA = inf{t ≥ 0; Xt ∈ A} (avec la convention inf ∅ = +∞). Le temps TA est un temps d’arrêt pour la filtration engendrée par X. Preuve. Pour tout t, nous avons {TA ≤ t} = ω; inf d(Xs (ω), A) = 0 , s∈Q,s≤t où d(x, A) représente la distance d’un point x ∈ R à l’ensemble A. Il est évident que le terme de droite appartient à Ft . Ce théorème devient très délicat dès que A est seulement un borélien de R ou dès que X est seulement un processus continu à droite et limité à gauche. Dans ce cas, la propriété reste vraie, mais pour une filtration plus grosse que la filtration engendrée par le processus. En revanche, le dernier temps avant un temps fixé s où X visite A, défini par S = sup{t ≤ s, Xt ∈ A} (où sup ∅ = 0) n’est pas un temps d’arrêt. En effet, pour t < s, l’événement {ω, S(ω) ≤ t} est dans F s mais pas dans F t : il dépend de toute la trajectoire de X(ω) jusqu’au temps s. 2.3. MARTINGALES ET TEMPS D’ARRÊT 59 Proposition 2.3.14 Si S et T sont deux temps d’arrêt, alors le temps aléatoire S ∧ T défini par S ∧ T (ω) = S(ω) ∧ T (ω) = min(S(ω), T (ω)) est un temps d’arrêt. La preuve de cette proposition est laissée au lecteur. Une propriété fondamentale des temps d’arrêt est que la propriété (2.3.10) peut facilement être étendue aux temps d’arrêt bornés. Si M est une martingale, on note MT la variable aléatoire définie sur Ω par MT (ω) = MT (ω) (ω). Remarquons que dès que M∞ est bien définie, les temps d’arrêt peuvent prendre la valeur infinie, pourvu que l’on pose MT = M∞ sur l’ensemble {T = ∞}. Théorème 2.3.15 1) Soit M une martingale. Si T est un temps d’arrêt borné, on a E(MT ) = E(M0 ). (2.3.12) 2) Soit X un processus F t -adapté tel que pour tout t, E(|Xt |) < +∞. Alors X est une martingale si et seulement si XT ∈ L1 et E(XT ) = E(X0 ) pour tout temps d’arrêt T borné. Preuve. 1) Considérons la suite de temps aléatoires Tn définis par Tn (ω) = k , 2n si k−1 k ≤ T (ω) < n . n 2 2 Il est facile de vérifier que les temps Tn sont des temps d’arrêt à valeurs finies, puisque T est borné. Ainsi, Il existe K tel que pour tout n, E(MTn ) = K X E(M kn 1{Tn = kn } ) = 2 k=0 K X E(E(M Kn |F 2 2 k 2n ) 1{Tn = kn } ) = E(M Kn ) = E(M0 ). 2 2 k=0 (2.3.13) Nous voulons passer à la limite en n dans (2.3.13). Par construction, la suite (Tn ) converge presque-sûrement et en décroissant vers T . Comme M est continue à droite, il s’en suit que MTn converge presque-sûrement vers MT . Comme T est borné par K, nous pouvons nous limiter à considérer la martingale M sur [0, K] où elle est uniformément intégrable. Ainsi, la suite (MTn )n est uniformément intégrable et converge presque-sûrement vers MT , elle converge alors en moyenne vers MT et la conclusion suit. 2) Il suffit de montrer que si les espérances de XT et X0 sont égales pour tout temps d’arrêt borné, alors X est une martingale. Soient s < t et A ∈ F s . Définissons le temps aléatoire T par T = t 1A c + s 1A . Il est facile de vérifier que T est un temps d’arrêt borné. Ainsi, E(XT ) = E(Xt 1Ac ) + E(Xs 1A ) = E(X0 ). 60 CHAPITRE 2. POPULATIONS SPATIALES Par ailleurs, comme t est (de manière évidente) un temps d’arrêt borné, nous avons également E(Xt ) = E(Xt 1Ac ) + E(Xt 1A ) = E(X0 ). Nous en déduisons que E(Xs 1A ) = E(Xt 1A ) et E(Xt |F s ) = Xs . Ainsi le processus X est une martingale. Nous pouvons en déduire facilement la proposition suivante, extrêmement utile dans la pratique, comme nous le verrons au paragraphe suivant. Proposition 2.3.16 Considérons une martingale M et un temps d’arrêt T . Alors le processus M T défini par MtT = Mt∧T est une martingale, appelée martingale arrêtée au temps T . Preuve. Pour tout t, MT ∧t est F t -mesurable et dans L1 . Soit S un temps d’arrêt borné. Alors T ∧ S est un temps d’arrêt borné et E(MT ∧S ) = E(M0 ). Nous en déduisons que E(MST ) = E(M0T ), ce qui assure finalement par le Théorème 2.3.15-2) que M T est une martingale. Remarque 2.3.17 Observons que (2.3.12) peut être fausse si T n’est pas borné. Par exemple pour le mouvement brownien B et si T = inf{t : Bt = 1} , nous avons E(B0 ) = 0 < E(BT ) = 1. Dans ce cas, le temps aléatoire T est presque sûrement fini, mais n’est pas borné et a même une espérance infinie (voir (2.3.15)). En revanche, dans le cas d’une martingale bornée (vérifiant (2.3.11)), on a le Théorème 2.3.18 Si M est une martingale bornée, alors (2.3.12) a lieu pour tout temps d’arrêt T . Preuve. La preuve est immédiate grâce à la Proposition 2.3.16. En effet, puisque pour tout t, nous avons E(MT ∧t ) = E(M0 ), il suffit de faire tendre t vers l’infini et d’utiliser le théorème de convergence dominée, grâce à la bornitude de M . 2.3.5 Applications au mouvement brownien Nous allons montrer dans ce paragraphe comment la propriété de martingale et l’utilisation de temps d’arrêt permettent de faire des calculs et en particulier d’obtenir les lois de certaines fonctionnelles du mouvement brownien. A - Propriété de Markov forte Remarquons tout d’abord que le mouvement brownien a la propriété de Markov forte, à savoir que la propriété de Markov se généralise aux temps d’arrêt, sur l’ensemble où ils sont finis. 2.3. MARTINGALES ET TEMPS D’ARRÊT 61 Théorème 2.3.19 Le mouvement brownien est fortement markovien. De plus, si T est un (T ) temps d’arrêt, alors sur l’ensemble {T < +∞}, le processus défini par Bs = BT +s − BT est encore un mouvement brownien, indépendant de la trajectoire jusqu’au temps T . Preuve. Montrons le pour un temps d’arrêt borné. En vertu de la caractérisation de Paul (T ) Lévy de la Proposition 2.3.4, nous allons montrer que les deux processus (Bs , s ≥ 0) et (T ) ((Bs )2 −s, s ≥ 0) sont des martingales. Nous utilisons la caractérisation 2) du Théorème 2.3.15. Considérons un autre temps d’arrêt borné S. Il suffit de montrer que E(BT +S − BT ) = 0 ; E((BT +S − BT )2 − S) = 0. Ces égalités sont immédiates grâce à la partie 1) du Théorème 2.3.15. B - Loi du temps d’atteinte d’un point. 1) - Utilisation du théorème d’arrêt des martingales. Soit B un mouvement brownien, et introduisons pour a > 0 le temps d’arrêt Ta = inf{t > 0, Bt = a}. Remarquons que grâce à la Proposition 2.2.16 (loi du logarithme itéré), l’ensemble {t > 0, Bt = a} est presque-sûrement non borné. Le mouvement brownien est récurrent et pour tout a > 0, P(Ta < +∞) = 1. 2 Considérons alors la martingale Mtλ = exp(λBt − λ2 t) pour un λ > 0 arbitraire et N = (M λ )Ta , qui est la martingale, arrêtée au temps Ta . Ainsi nous avons Nt = MTλa ∧t , d’où nous déduisons 0 < Nt ≤ eaλ , ce qui entraîne que N est bornée. Nous pouvons donc appliquer (2.3.12) à la martingale N et au temps d’arrêt Ta , ce qui 2 donne E(NTa ) = E(N0 ) = 1. Puisque NTa = exp(λa − λ2 Ta ) et en posant θ = λ2 /2, nous obtenons √ E(e−θTa ) = e−a 2θ . (2.3.14) En faisant tendre θ vers 0 et par théorème de convergence dominée, nous obtenons que P(Ta < +∞) = 1. (2.3.15) De même en dérivant par rapport à θ puis en faisant tendre θ vers 0, nous obtenons E(Ta 1Ta <+∞ ) = +∞ et donc a fortiori E(Ta ) = +∞. (2.3.16) Puisque si B est un mouvement brownien, −B l’est aussi et les propriéiés (2.3.15) et (2.3.16) sont également vraies si a < 0. 62 CHAPITRE 2. POPULATIONS SPATIALES Ainsi, le mouvement brownien atteint chaque point avec probabilité 1, mais il mettra un temps infini à les atteindre. Intuitivement, cette propriété se comprend du fait de l’irrégularité fractale des trajectoires. Grâce à la propriété de Markov forte, il est très facile de déduire de (2.3.15) la propriété de récurrence du mouvement brownien, en conditionnant par les temps de passage successifs au point a. La preuve de la proposition suivante est laissée à titre d’exercice au lecteur. Proposition 2.3.20 Avec probabilité 1, pour tout t ≥ 0, le processus B visite infiniment souvent chaque nombre réel a après le temps t. L’expression (2.3.14) donne en fait la transformée de Laplace de la variable Ta en θ, qui peut être inversée (Voir [10] p.187). Cela montre que Ta admet une densité sur R+ donnée par a 2 e−a /2u , u ≥ 0. (2.3.17) fa (u) = √ 2πu3 La loi de Ta s’appelle une loi stable d’indice 1/2. Nous allons donner une deuxième méthode, plus probabiliste, permettant de trouver la loi de Ta . Celle-ci repose sur une propriété du mouvement brownien, appelée principe de réflexion. 2) Le principe de réflexion. Introduisons le processus (St , t ≥ 0) continu croissant et défini par St = sups≤t Bs . Ce processus et les temps d’arrêt Ta sont inverses l’un de l’autre au sens où {Ta ≤ t} = {St ≥ a} et donc Ta = inf{t; St ≥ a} et St = inf{a, Ta ≥ t}. La propriété de Markov forte permet de montrer le principe de réflexion suivant. Proposition 2.3.21 Pour a > 0, pour tout t > 0, a P(St ≥ a) = P(Ta ≤ t) = 2P(Bt ≥ a) = P(|Bt | ≥ a) = 2(1 − Φ( √ )), t (2.3.18) où Φ désigne la fonction de répartition de la loi N (0, 1), définie par Φ(t) = P (U ≤ t) si U est une variable normale centrée réduite. Remarque 2.3.22 1) Ce résultat nous donne la fonction de répartition de Ta et par un argument classique de dérivation de cette fonction, nous pouvons retrouver (ou en déduire) que la loi de Ta a la densité donnée par (2.3.17). 2) La propriété (2.3.18) entraîne en particulier que pour tout t, les variables aléatoires St et |Bt | ont même loi puisqu’elles ont même fonction de répartition. Toutefois, les processus (St , t ≥ 0) et (|Bt |, t ≥ 0) n’ont pas même loi, puisque le premier est croissant et que le deuxième revient presque-sûrement vers 0 comme nous l’avons vu ci-dessus. 2.3. MARTINGALES ET TEMPS D’ARRÊT 63 Preuve. Le nom de ce résultat vient de l’argument heuristique suivant. Parmi les trajectoires qui atteignent a avant le temps t, “une moitié” sera supérieure à a au temps t. En effet, P(Ta ≤ t) = P(Ta ≤ t, Bt ≥ a) + P(Ta ≤ t, Bt < a). Mais P(Ta ≤ t, Bt ≥ a) = P(Bt ≥ a) car le mouvement brownien étant à trajectoires continues et issu de 0, il doit nécessairement passer par a pour devenir supérieur à a. Par ailleurs, par la propriété de Markov forte et par symétrie du mouvement brownien, nous avons P(Ta ≤ t, Bt < a) = E(Ta ≤ t, E(Bt < a|F Ta )) = P(Ta ≤ t, E(Bt−Ta < a|B0 = a)) Z t 1 E(Bt−s < a|B0 = a) P(Ta ∈ ds) = P(Ta ≤ t). = 2 0 En effet, E(Bt−s < a|B0 = a) = E(Bt−s − a < 0|B0 = a) = E(Bt−s < 0|B0 = 0) = 12 . Nous en déduisons (2.3.18). B - Temps d’atteinte des bornes d’un intervalle. Considérons maintenant a > 0 et b > 0 et soit T = min(Ta , T−b ). D’après (2.3.15), nous avons P(T < +∞) = 1. Etudions plus précisément ce temps de sortie de l’intervalle ]a, b[. Proposition 2.3.23 Pour un mouvement brownien issu de 0, les probabilités de sortie de l’intervalle ] − b, a[ par l’une ou l’autre borne sont données par P(Ta < T−b ) = b a+b ; P(T−b < Ta ) = a . a+b (2.3.19) De plus, E(min(Ta , T−b )) = ab. (2.3.20) Plus b est grand, plus le mouvement brownien a de chances de sortir par a de l’intervalle ] − b, a[. Preuve. Notons T = min(Ta , T−b ). Puisque P(T < +∞) = 1, nous savons que P(Ta < T−b ) + P(T−b < Ta ) = 1. Par ailleurs, la martingale arrêtée Mt = Bmin(T,t) est bornée, et nous pouvons appliquer (2.3.12) au temps T . Cela entraîne que 0 = E(M0 ) = E(MT ) = a P(T = Ta ) − b P(T = T−b ). (2.3.21) 64 CHAPITRE 2. POPULATIONS SPATIALES Mais {T = Ta } = {Ta < T−b } et {T = T−b } = {T−b < Ta }, de sorte que finalement, nous pouvons calculer les probabilités de sortir par l’une ou l’autre borne de l’intervalle ] − b, a[ et obtenir (2.3.19). Pour montrer (2.3.20), nous allons utiliser un argument similaire en utilisant la martingale Mt = Bt2 − t. En effet, E(MT ∧t ) = 0 pour tout t ≥ 0. Par ailleurs nous avons E(MT ∧t ) = a2 P(BT = a, T ≤ t) + b2 P(BT = −b, T ≤ t) + E(Bt2 1T >t ) − E(T ∧ t). Par convergence dominée et convergence monotone quand t tend vers l’infini, nous en déduisons que E(MT ) = 0 = a2 P(BT = a) + b2 P(BT = −b) − E(T ), d’où le résultat. 2.3.6 Applications aux temps d’atteinte de barrières Comme dans le cas des marches aléatoires nous allons nous intéresser à des barrières absorbantes ou réfléchissantes. Barrière absorbante en 0 Revenons à l’exemple du plancton et considérons maintenant la modélisation de son déplacement en temps continu. Soit x > 0. La particule de plancton est issue de x > 0 (la position 0 est le fond de la mer). Elle diffuse verticalement suivant un mouvement brownien. Nous supposons que la surface est à la hauteur a du fond, et dans un premier temps nous supposerons que a = +∞, c’est-à-dire que la profondeur est suffisamment grande par rapport à la taille de la cellule pour que son déplacement soit considéré comme possible sur tout R+ . Le fond de la mer est recouvert de moules, et la particule est absorbée dès qu’elle touche le fond (comme dans le cas discret que nous avons étudié précédemment). Cherchons le temps moyen de capture d’une particule issue d’une profondeur x > 0. Avant d’être absorbée, celle-ci suit un mouvement brownien issu de x, défini par Xt = x + Bt . Notons T0 = inf{t : Xt = 0} et calculons le temps moyen d’absorption m(x) = E(T0 | X0 = x). En adaptant la preuve de (2.3.16), nous obtenons immédiatement que m(x) = +∞. Supposons maintenant que la surface de la mer soit à la hauteur a > 0 et que la particule soit aussi absorbée à la surface, si elle y parvient (nappe de pétrole, pollution, baleine). 2.3. MARTINGALES ET TEMPS D’ARRÊT 65 Cette cellule va alors se déplacer suivant un mouvement brownien issu de x ∈ [0, a], absorbé en 0 et en a. Ainsi, dans ce cas, m(x) = E(T0 ∧ Ta | X0 = x) = Ex (T0 ∧ Ta ). Notons T = T0 ∧ Ta . Le processus X.T = X.∧T est une martingale issue de x, bornée par 0 et a. Nous pouvons alors appliquer un raisonnement analogue à ceux du paragraphe précédent. Nous obtenons que Ex (XT ) = a Px (XT = a) = a Px (Ta < T0 ) = Ex (X0 ) = x. Ainsi, x x ; Px (T0 < Ta ) = 1 − , a a puisque le processus est récurrent et que Px (T < ∞) = 1. Nous pouvons alors utiliser la martingale Xt2 − t pour trouver l’espérance de T . Nous savons que Xt2 − t est une martingale. Toutefois elle n’est pas bornée pour t ≤ T . En revanche nous allons pouvoir appliquer le théorème d’arrêt au temps d’arrêt T ∧ k, pour k un entier quelconque fixé. 2 Le processus Xt∧T ∧k − (t ∧ T ∧ k) est une martingale bornée. Nous obtenons alors Px (Ta < T0 ) = Ex ((XT ∧k )2 ) = x2 + Ex (T ∧ k) = a2 Px (Ta < T0 , Ta < k) + Ex ((Xk )2 1k≤T ). Comme Px (T < ∞) = 1, nous en déduisons que Ex ((Xk )2 1k≤T ) ≤ a2 Px (k ≤ T ), et cette dernière quantité tend vers 0 quand k tend vers l’infini. Ainsi, quand k tend vers l’infini, nous obtenons que a2 Px (Ta < T0 ) = x2 + Ex (T ) d’où finalement la Proposition 2.3.24 L’espérance du temps de sortie de ]0, a[ par un mouvement brownien issu de x est donnée par Ex (T ) = x(a − x). (2.3.22) Barrière réfléchissante en a Supposons maintenant que la surface de la mer soit à la hauteur a et que la cellule de plancton se réfléchisse naturellement à la surface. Elle va alors se déplacer suivant un 66 CHAPITRE 2. POPULATIONS SPATIALES mouvement brownien issu de x, absorbé en 0 et réfléchi en a. Si le mouvement brownien atteint a avant 0, il va se comporter après réflexion comme un nouveau mouvement brownien issu de a et indépendant du précédent allant dans le sens inverse (principe de réflexion). Pour ce deuxième mouvement brownien, la probabilité d’atteindre 0 en partant de a va alors être la même que la probabilité d’atteindre 2a pour le premier (en partant de a). Nous allons adapter les calculs du cas précédent en remplaçant a par 2a. Ainsi, dans ce cas, m(x) = E(T0 ∧ T2a |X0 = x), où 0 < x < a. On aura P(T2a < T0 ) = x x ; P(T0 < T2a ) = 1 − , 2a 2a et par conséquent la Proposition 2.3.25 L’espérance du premier temps d’atteinte de 0 par un mouvement brownien issu de x et réfléchi en a est donnée par m(x) = E(T ) = x(2a − x). 2.4 Intégrales stochastiques et équations différentielles stochastiques Nous avons vu à la Remarque 2.2.10 que certaines normalisations de marches aléatoires pouvaient conduire à des processus de type t → b t + σBt , somme d’un processus déterministe et d’un processus aléatoire. Si b 6= 0, le premier terme peut être vu comme un terme de tendance centrale et le deuxième terme en est une perturbation aléatoire. Dans le cas de la particule de plancton, ce déplacement peut modéliser l’évolution d’une particule dont la vitesse est b en moyenne, avec des fluctuations aléatoires de variance σ 2 t. Dans cette partie, nous allons généraliser ce type de processus. Supposons que le déplacement de la particule de plancton dépende de l’hétérogénéité de la colonne d’eau dans laquelle elle évolue. Par exemple, la température de l’eau ou la pollution peuvent avoir une influence sur la vitesse (le plancton peut se déplacer plus vite en eaux chaudes et ralentir si la température baisse). Cette hétérogénéité va se traduire par le fait que les coefficients b et σ vont dépendre de la position spatiale où se trouve le plancton. Nous allons développer cette idée. Usuellement, quand les fluctuations aléatoires sont inexistantes ou extrêmement petites, la description du mouvement d’une particule est décrite par la solution d’une équation différentielle ordinaire, de type dxt = b(xt )dt. 2.4. INTÉGRALES STOCHASTIQUES ET EDS 67 Supposons que le mouvement soit perturbé par une composante aléatoire. Comme nous l’avons vu ci-dessus, nous pouvons modéliser l’alea des fluctuations d’une particule pendant un temps infinitésimal dt par une variable aléatoire de loi normale centrée de variance σdt et que l’on peut penser comme "σdBt ". Si nous supposons de plus que l’écart-type des fluctuations dépend de la position de la particule au temps t, le mouvement aléatoire de la particule sera une fonction aléatoire t → Xt , solution d’une équation qui pourrait avoir la forme dXt = b(Xt )dt + σ(Xt )dBt . (2.4.1) Une équation de ce type est appelée une équation différentielle stochastique. On pourrait croire que c’est une généralisation d’une équation différentielle ordinaire mais en fait, elle ne peut pas avoir le même sens, puisque nous avons vu que les trajectoires browniennes ne sont nulle part dérivables (cf. Proposition 2.2.20). Si nous supposons que la condition initiale est une variable aléatoire X0 , une solution de (2.4.1) est par définition la solution de l’équation intégrale Z t Z t Xt = X0 + b(Xs )ds + σ(Xs )dBs . (2.4.2) 0 0 Rt Un problème majeur est de donner un sens à l’intégrale 0 σ(Xs )dBs , qui va être une intégrale de nature différente d’une intégrale de Riemann. Cette intégrale, appelée intégrale stochastique, a été construite par Itô en 1944. 2.4.1 Intégrales stochastiques Rt Nous souhaitons donner un sens à l’intégrale 0 Hs dBs quand B est un mouvement brownien et H = (Ht )t≥0 un processus dont les propriétés sont à préciser. Une telle intégrale portera le nom d’intégrale stochastique, ce qui permet d’insister sur le fait que cette intégrale n’est pas une intégrale usuelle, prise pour chaque valeur de ω, mais sera définie comme une limite dans L2 . Nous nous limiterons à des intégrants H(ω, t) qui sont (presque-sûrement) continus en la variable t. Par simplicité, nous supposerons également que le processus H considéré est borné par une R t constante C, mais cette hypothèse pourrait être allégée. L’idée naturelle est d’obtenir Hs dBs comme limite de sommes de Riemann 0 I(H, n)t = [nt] X H(i−1)/n (Bi/n − B(i−1)/n ). (2.4.3) i=1 √ et de variance 1/n, La variable Bi/n − B(i−1)/n est d’ordre 1/ n, car elle est centrée √ et donc H(i−1)/n (B √ i/n − B(i−1)/n ) est également d’ordre 1/ n . La variable I(H, n)t est donc d’ordre n . Ce raisonnement heuristique nous indique que la suite de variables 68 CHAPITRE 2. POPULATIONS SPATIALES aléatoires (I(H, n)t )n ne pourra en général pas converger. (Cela est cohérent avec le fait que les trajectoires de B sont à variation infinie). Pourtant, une sorte de “miracle” a lieu, si l’on suppose de plus que le processus H est adapté à la filtration du mouvement brownien. (Un tel miracle est déjà arrivée lors de la convergence de la marche aléatoire symétrique renormalisée vers le mouvement brownien - Proposition 2.2.8 - qui correspondrait ici à H = 1). Dans ce cas, H(i−1)/n est F (i−1)/n -mesurable et la variable Y (n, i) = H(i−1)/n (Bi/n − B(i−1)/n ) satisfait E(Y (n, i)|F (i−1)/n ) = H(i−1)/n E(Bi/n − B(i−1)/n |F (i−1)/n ) = 0 et 2 E(Y (n, i) |F (i−1)/n ) = 2 H(i−1)/n C2 1 ≤ . n n De plus, si i < j, E(Y (n, i)Y (n, j)) = E(E(H(i−1)/n (Bi/n − B(i−1)/n ) H(j−1)/n (Bj/n − B(j−1)/n ) | F j−1 )) n = E(H(i−1)/n (Bi/n − B(i−1)/n ) H(j−1)/n ) E(Bj/n − B(j−1)/n ) = 0, (2.4.4) par l’indépendance des accroissements du mouvement brownien et le fait que E(Bj/n − P B(j−1)/n ) = 0, de telle sorte que I(H, n)t = [nt] i=1 Y (n, i) est une variable aléatoire centrée et de variance [nt] X E(Y (n, i)2 ) ≤ C 2 t. i=1 Nous pouvons montrer beaucoup mieux, à savoir le théorème suivant. Théorème 2.4.1 Soit H un processus borné, continu et adapté à la filtration d’un mouvement brownien B. Alors, la suite I(H, n)t = [nt] X H(i−1)/n (Bi/n − B(i−1)/n ) i=1 converge dans L2 , quand n tend vers l’infini, vers une limite, notée Z t Hs dBs . 0 Rt Définition 2.4.2 La variable aléatoire de carré intégrable 0 Hs dBs est appelée l’intégrale stochastique de H par rapport à B sur l’intervalle [0, t]. 2.4. INTÉGRALES STOCHASTIQUES ET EDS 69 Remarque 2.4.3 1 - La convergence des sommes de Riemann énoncée dans le Théorème 2.4.1 est liée à l’adaptation du processus. Si H(i−1)/n (Bi/n − B(i−1)/n ) est remplacé par Ht(n,i) (Bi/n − B(i−1)/n ), avec (i − 1)/n ≤ t(n, i) ≤ i/n, comme il est possible de le faire pour les approximations par les sommes de Riemann pour les intégrales usuelles, la suite associée I(H,Rn)t ne converge pas nécessairement et si elle converge, la limite peut être t différente de 0 Hs dBs . 2 - On peut montrer que pour toute partition croissante (tn )n de [0, t] de pas tendant vers 0, une approximation analogue à (2.4.3) obtenue en remplaçant ni par tn converge également vers la même limite. C’est en cela que la théorème 2.4.1 prend toute sa force. 3 - L’intégrale est définie comme limite L2 et n’a donc de sens que presque-sûrement. Comme nous l’avons vu précédemment, l’objet dBt n’est qu’une notation et n’est en aucun cas une mesure définie ω par ω. Preuve. On montre que, à t fixé, la suite (I(H, n)t )n est une suite de Cauchy dans L2 . Montrons tout d’abord que pour m ∈ N∗ fixé, la suite E((I(H, n)t − I(H, mn)t )2 ) tend , i ] d’amplitude n1 est composé de vers 0 quand n tend vers l’infini. Chaque intervalle ( i−1 n n 1 m sous intervalles ( i−1 , i−1 + mn ], · · · , ( i−1 + m−1 , i ]. Nous avons alors n n n mn n I(H, n)t − I(H, mn)t = [nt] X H i−1 (Bi/n − B(i−1)/n ) − [nt] m X X n H i−1 + j−1 (B i−1 + n mn n j mn − B i−1 + j−1 ) n mn i=1 j=1 i=1 [nt] m X X = (B i−1 + n j mn − B i−1 + j−1 ) (H i−1 − H i−1 + j−1 ). n n mn n mn i=1 j=1 Alors, par le même raisonnement que précédemment dans (2.4.4) (en conditionnant), il est facile de montrer que [nt] m X X E((I(H, n)t − I(H, mn)t ) ) = E (B i−1 + 2 n j mn − B i−1 + j−1 )2 (H i−1 − H i−1 + j−1 )2 n mn n n mn i=1 j=1 [nt] m 1 XX = E (H i−1 − H i−1 + j−1 ))2 . n n mn mn i=1 j=1 Nous pouvons en déduire par l’uniforme continuité de H sur [0, t] et grâce au théorème de convergence dominée que cette quantité tend vers 0 quand n tend vers l’infini. En faisant un raisonnement analogue pour E((I(H, m)t − I(H, mn)t )2 ) quand n tend vers l’infini, nous pouvons finalement en déduire que la suite (I(H, n)t )n est une suite de Cauchy dans L2 . Cela conclut la preuve de la convergence de la suite (I(H, n)t )n dans L2 . 70 CHAPITRE 2. POPULATIONS SPATIALES Propriétés de l’intégrale stochastique Les propriétés essentielles de l’intégrale stochastique se déduisent des propriétés de I(H, n)t par passage à la limite. Théorème 2.4.4 Soient H et K des processus bornés, continus et adaptés à la filtration d’un mouvement brownien B. Rt Rt Rt 1. Pour tous réels α et β, 0 (αHs + βKs )dBs = α 0 Hs dBs + β 0 Ks dBs . Rt 2. Le processus M défini par Mt = 0 Hs dBs est une martingale continue de carré intégrable, nulle en 0, et donc d’espérance nulle. Rt 3. Si de plus, Nt = 0 Ks dBs , le processus M N défini par Z Mt Nt − t Hs Ks ds (2.4.5) 0 est une martingale continue nulle en 0. Il s’en suit que Z t Hs Ks ds . E(Mt Nt ) = E (2.4.6) 0 En particulier, l’isométrie fondamentale suivante est satisfaite : Z t 2 ! Z t 2 2 Hs dBs Hs ds . E(Mt ) = E =E 0 (2.4.7) 0 Ces formules sont fondamentales car elles ramènent le calcul du moment d’ordre 2 d’une intégrale stochastique à un calcul intégral classique. Preuve. 1. C’est évident par passage à la limite. 2. Par construction M est adaptéR et de carré intégrable. Si on prend la partition ti = P t s + (t−s)i de [s, t], on a également H dB = lim H u u n ti−1 (Bti − Bti−1 ), où la limite est i n s 2 prise dans L . De plus, Z t X E Hu dBu |Fs = lim E Hti−1 (Bti − Bti−1 )|Fs s n = lim n i X E Hti−1 E(Bti − Bti−1 |Fti−1 )|Fs = 0. i Nous en déduisons que M est une martingale. Remarquons que I(H, n)t peut encore s’écrire [nt] X I(H, n)t = H(i−1)/n (Bt∧i/n − Bt∧(i−1)/n ) i=1 2.4. INTÉGRALES STOCHASTIQUES ET EDS 71 et est une martingale continue en temps. Nous pouvons appliquer l’inégalité de Doob (2.3.6) à la martingale Mt − I(H, n)t . Nous aurons alors pour ε > 0 P( sup |Mt − I(H, n)t | > ε) ≤ t∈[0,T ] 4 E(|MT − I(H, n)T |2 ) ε2 qui tend vers 0 quand n tend vers l’infini. Ainsi, la suite I(H, n) converge en probabilité vers M dans l’ensemble des fonctions continues sur [0, T ] muni de la norme uniforme. On peut alors en extraire une sous-suite telle que I(H, nk ) converge presque-sûrement vers M , pour la topologie de la convergence uniforme. Nous en déduisons en particulier que M est presque-sûrement à trajectoires continues sur [0, T ]. Rt 3. Montrons que Mt2 − 0 Hs ds est une martingale. Comme M est une martingale, nous avons pour s < t, E(Mt2 − Ms2 |Fs ) = E((Mt − Ms )2 |Fs ) et il suffit de vérifier que Z 2 E((Mt − Ms ) |Fs ) = E ! 2 t |Fs Hu dBu Z =E s t Hu2 du|Fs . s On a ! 2 t Z Hu dBu E |Fs s = E lim n = lim !2 X |Fs = lim E n i X n Hti−1 (Bti − Bti−1 ) E E(Ht2i−1 (Bti − Bti−1 )2 |Fti−1 )|Fs !2 X Hti−1 (Bti − Bti−1 ) |Fs i i +2 X E E(Hti−1 Htj−1 (Bti − Bti−1 )(Btj − Btj−1 ) |Ftj−1 )|Fs i<j = lim n X i E Ht2i−1 (ti Z − ti−1 ) |Fs = E t Hu2 du|Fs . s Les passages à la limite sont justifiés par la convergence des sommes partielles dans L2 et la dernière limite est une convergence de sommes de Riemann. La formule (2.4.5) s’obtient alors par polarisation. Remarque 2.4.5 L’intégrale stochastiquepeut être généralisée sur [0, T ] à tout processus RT 2 (Ht , t ∈ [0, T ]) adapté et continu tel que E 0 Hs ds < +∞. De plus l’isométrie (2.4.7) est conservée. La preuve de cette généralisation est plus délicate et nécessite un argument de prolongement d’opérateur que nous ne développerons pas ici. 72 2.4.2 CHAPITRE 2. POPULATIONS SPATIALES Equations différentielles stochastiques (EDS) Nous sommes maintenant en mesure de définir ce qu’est la solution d’une équation différentielle stochastique. Définition 2.4.6 Sur un espace de probabilité (Ω, F, P), considérons un mouvement brownien (Bt , t ≥ 0) et une variable aléatoire réelle X0 indépendante de B. Soit (F t )t≥0 la filtration engendrée par le mouvement brownien B et par X0 . Considérons également des fonctions b et σ, définies sur R. Nous appelons solution de l’équation différentielle stochastique (EDS) dXt = b(Xt )dt + σ(Xt )dBt ; X0 (2.4.8) tout processus (Xt , t ≥ 0) continu, adapté à la filtration (F t )t≥0 et vérifiant pour tout t ≥ 0, Z t X t = X0 + Z t b(Xs )ds + 0 σ(Xs )dBs . (2.4.9) 0 Observons que l’adaptation de X est nécessaire pour que l’intégrale stochastique dans (2.4.9) ait un sens. Nous allons chercher des conditions suffisantes pour avoir existence et unicité d’une solution. Dans le cas purement déterministe d’une équation différentielle ordinaire, de la forme dXt = b(Xt )dt, X 0 = x0 , (2.4.10) où la fonction b et la condition initiale x0 sont données, un résultat classique (le théorème de Cauchy-Lipschitz) énonce que (2.4.10) admet une et une seule solution dès que b est lipschitzienne. Pour l’équation différentielle stochastique (2.4.8), nous pouvons prouver essentiellement le même résultat, dans l’espace des processus de carré intégrable. Théorème 2.4.7 Si les coefficients b et σ sont lipschitziens et si la condition initiale X0 est dans L2 , alors pour tout T > 0, il existe une et une seule solution X dans l’ensemble des processus adaptés et de carré intégrable L2T = {X adapté continu, E(supt≤T |Xt |2 ) < ∞}, à l’équation différentielle stochastique (2.4.9) Z Xt = X0 + t Z b(Xs )ds + 0 t σ(Xs )dBs . 0 Définition 2.4.8 Le processus X est appelé un processus de diffusion. Les fonctions σ(x) et b(x) sont appelées respectivement coefficient de diffusion et coefficient de dérive de X. 2.4. INTÉGRALES STOCHASTIQUES ET EDS 73 Preuve. L’argument de la preuve consiste essentiellement en un théorème de point fixe dans L2T . Notons par Kb et Kσ les constantes de Lipschitz de b et σ. Remarquons que dans ce cas, les deux fonctions b et σ sont sous-linéaires, au sens où il existe une constante K > 0 telle que |b(x)|2 ≤ K(1 + |x|2 ) et même chose pour σ. (i) Unicité. Supposons qu’il existe deux processus X et Y appartenant à L2T et solutions de (2.4.9). Remarquons que dans ce cas, E(supt≤T |b(Xt )|2 ) < +∞ et il en sera de même en remplaçant X par Y ou b par σ. Nous avons alors E(|Xt − Yt |2 ) ≤ 2 E Z t 2 Z t 2 ! (b(Xs ) − b(Ys ))ds + (σ(Xs ) − σ(Ys ))dBs 0 0 Z t Z t 2 2 ≤ 2 T E(|b(Xs ) − b(Ys )| )ds + E(|σ(Xs ) − σ(Ys )| )ds 0 0 Z t ≤ 2(T Kb + Kσ ) E(|Xs − Ys |2 )ds. 0 Nous avons utilisé l’inégalité de Cauchy-Schwarz pour le premier terme de l’inégalité et l’isométrie (2.4.7) pour le deuxième terme, puis la propriété de Lipschitzianité de σ et b. La fonction s 7→ E(|Xs −Ys |2 ) est borélienne bornée par hypothèse car X −Y appartient à L2T . Nous pouvons alors appliquer le lemme de Gronwall à cette fonction (voir le Lemme 2.4.9 ci-dessous) et en déduire ainsi que pour tout t, Xt = Yt presque-sûrement. Ainsi pour tout t rationnel il existe un ensemble négligeable Nt tel que si ω ∈ / Nt , Xt (ω) = Yt (ω). Mais alors, N = ∪t∈Q∩[0,T ] Nt est un ensemble négligeable comme réunion dénombrable d’ensembles négligeables. De plus, pour tout ω ∈ / N , pour tout t ∈ Q ∩ [0, T ], Xt (ω) = Yt (ω). La continuité de X et Y permet alors d’en conclure que les trajectoires de X et Y coïncident presque sûrement et que ces deux processus sont donc indistingables. Remarquons que nous avons R t une autre preuve en utilisant l’inégalité de martingale (2.3.6) appliquée à la martingale 0 σ(Xs )dBs et à p = 2. Nous avons que pour tout u ≤ T , E(sup |Xt − Yt |2 ) ≤ 2 E sup t≤u t≤u Z t 2 Z t 2 ! (b(Xs ) − b(Ys ))ds + sup (σ(Xs ) − σ(Ys ))dBs t≤u 0 u 0 u ≤ 2 T E(|b(Xs ) − b(Ys )| )ds + 2 E(|σ(Xs ) − σ(Ys )| )ds 0 0 Z u Z u 2 2 ≤ 2 T E(sup |b(Xv ) − b(Yv )| )ds + 2 E(sup |σ(Xv ) − σ(Yv )| )ds v≤s v≤s 0 0 Z u ≤ 2(T Kb + 2Kσ ) E(sup |Xv − Yv |2 )ds, Z 2 0 Z 2 v≤s ce qui donne également le résultat puisque dans ce cas nous obtenons immédiatement grâce au lemme de Gronwall que les processus X et Y sont indistingables sur [0, T ]. 74 CHAPITRE 2. POPULATIONS SPATIALES (ii) Existence. l’idée consiste à définir de manière récursive la suite de processus (X n )n sur [0, T ] par Xt0 = X0 et pour tout n, par Z t Z t n−1 n σ(Xsn−1 )dBs . b(Xs )ds + X t = X0 + 0 0 Par des calculs analogues à ceux développés pour l’unicité, nous pouvons montrer de même qu’il existe une constante C > 0 telle que pour tout n, Z t n n−1 2 E(sup |Xun−1 − Xun−2 |2 )ds. E(sup |Xs − Xs | ) ≤ C s≤t 0 u≤s Cette inégalité peut être réitérée, ce qui donne E(sup |Xtn − Xtn−1 |2 ) ≤ C ∗ t≤T (CT )n−1 , (n − 1)! où C ∗ = E(supt≤T |Xt1 − X0 |2 ) < +∞ car b et σ sont bornées. Mais alors 1 (4CT )n−1 n n−1 , P sup |Xt − Xt | > n ≥ 4C ∗ 2 (n − 1)! t≤T qui est le terme général d’une série convergente. Nous en déduisons par le lemme de BorelCantelli que la série de terme général supt≤T |Xtn − Xtn−1 | converge presque-sûrement, et qu’ainsi, la suite (X n )n converge presque sûrement et uniformément sur tout compact borné, vers un processus continu X. Il est facile de montrer que ce processus est solution de l’équation différentielle stochastique (2.4.8) et qu’il appartient à L2T pour tout T > 0. Lemme 2.4.9 Lemme de Gronwall : Soit T > 0 et f une fonction borélienne positive et bornée sur [0, T ]. Supposons de plus qu’il existe deux constantes positives α et β telles que pour tout t ∈ [0, T ], Z t f (t) ≤ α + β f (s)ds. (2.4.11) 0 Alors pour tout t ∈ [0, T ], f (t) ≤ α eβ t . En particulier, si α = 0, la fonction f est identiquement nulle. Preuve. Itérons (2.4.11). Nous obtenons (βt)n (βt)2 + ··· + α + β n+1 f (t) ≤ α + α(βt) + α 2 n! Z t Z Z ds2 · · · ds1 0 s1 0 sn f (sn+1 )dsn+1 . 0 n+1 Si f est majorée par A, le dernier terme est majoré par A (βt) et tend vers 0 quand n (n+1)! tend vers l’infini, ce qui conclut le lemme. 2.4. INTÉGRALES STOCHASTIQUES ET EDS 75 Remarque 2.4.10 1) Le fait que l’on obtienne une solution dans un espace de type L2 n’est pas surprenant : c’est en effet dans ce cadre que l’on a développé le calcul stochastique. 2) Nous avons défini la solution de l’EDS (2.4.8) à partir de la donnée d’un mouvement brownien B et d’une condition initiale X0 . Une autre approche (plus faible) consiste à définir une solution comme la donnée d’un espace de probabilité, d’un mouvement brownien, d’une condition initiale de même loi que X0 et d’un processus X satisfaisant (2.4.9). Cela conduit à une autre notion d’unicité, appelée unicité faible, dans le cas où les lois de deux solutions au sens précédent (appelées solutions faibles) coïncident. Cette définition est plus faible au sens où l’unicité trajectorielle, i.e. si X et X 0 (définis sur le même espace de probabilités) sont deux solutions, alors P(Xt = Xt0 pour tout t) = 1, entraîne l’unicité faible. (Voir par exemple Revuz-Yor [39], Théorème (1.7)). Remarque 2.4.11 Dans le cas de la dimension 1, il existe un résultat d’unicité trajectorielle de la solution de l’EDS (2.4.9) qui ne nécessite pas la lipschitzianité du coefficient de diffusion σ. Nous n’en donnerons pas la preuve ici. Théorème 2.4.12 (cf. [24] Chapitre 5.5). Si |b(x) − b(y)| + |σ(x) − σ(y)|2 ≤ C|x − y|, (2.4.12) alors il existe une unique solution trajectorielle à l’EDS (2.4.9). Ici, σ n’est plus supposée lipschitzienne, mais seulement höldérienne de rapport 1/2. Nous verrons plusieurs exemples d’équations de ce type dans les chapitres suivants, avec p √ σ(x) = x dans le cas de la diffusion de Feller (3.4.82) ou σ(x) = x(1 − x) dans le cas de la diffusion de Wright-Fisher (??). Remarque 2.4.13 Nous avons défini une équation différentielle stochastique en dimension 1 mais cette notion peut se généraliser en dimension d, avec pour tout x, b(x) = (bi (x))1≤i≤d un vecteur de Rd , σ(x) = ((σi,j (x)))1≤i≤d,1≤j≤m une matrice de Rd × Rm et B = (B j )1≤j≤m un mouvement brownien m-dimensionnel. Dans ce cas, nous appelons ce système un système différentiel stochastique et la définition d’une solution sera donnée comme suit. Définition 2.4.14 Etant donnés un mouvement brownien m-dimensionnel B et un vecteur aléatoire X0 ∈ Rd indépendant de B, on appelle solution du système différentiel stochastique dXt = σ(Xt ).dBt + b(Xt )dt un processus X continu adapté et à valeurs dans Rd tel que Z t Z t X t = X0 + σ(Xs ).dBs + b(Xs )ds, 0 0 76 CHAPITRE 2. POPULATIONS SPATIALES au sens où pour tout 1 ≤ i ≤ d, Xti = X0i + m Z X j=1 t σij (Xs )dBsj 0 Z + t bi (Xs )ds. (2.4.13) 0 Par une preuve presque identique à celle du Théorème 2.4.7 et en remplaçant la valeur absolue par la norme euclidienne dans Rd , il est facile de montrer que si les coefficients bi et σi,j sont lipschitziens(pour tous i et j) et si X0 est de carré intégrable, il existe une unique solution à (2.4.13) de carré intégrable uniformément sur [0, T ]. 2.5 Propriété de Markov Dans toute la suite, nous supposerons l’existence et l’unicité trajectorielle d’une solution à l’équation différentielle stochastique (2.4.8) sur tout R+ , au sens où la solution existe et est unique sur tout intervalle de temps fermé borné de R+ . Théorème 2.5.1 Le processus X, solution de l’équation différentielle stochastique (2.4.8) est un processus de Markov homogène. C’est même un processus fortement markovien. Preuve. Fixons un temps fixe T . Nous considérons l’équation différentielle stochastique suivante, dXt0 = b(Xt0 ) dt + σ(Xt0 ) dBtT , X00 = XT , (2.5.14) où BtT = BT +t − BT . Le processus B T est encore un mouvement brownien, indépendant du passé avant T , et donc indépendant de XT . Les coefficients dans l’équation (2.5.14) étant lipschitziens, la solution X 0 existe et est unique. 0 si Définissons maintenant un nouveau processus X 00 par Xt00 = Xt si t < T et Xt00 = Xt−T 00 t ≥ T . Clairement, au vu de (2.5.14), X satisfait l’équation (2.4.9 ). Ainsi, par l’unicité, on obtient X 00 = X, et XT +t = Xt0 si t ≥ 0. Il s’en suit que la variable aléatoire XT +t dépend seulement de XT et de B T , et la loi conditionnelle de XT +t sachant que XT = x sera égale à la loi de Xt , quand la condition initiale est X0 = x. Nous en déduisons alors que X est un processus de Markov homogène. Nous pouvons reproduire l’argument précédent en prenant comme temps T un temps d’arrêt fini au lieu d’un temps fixe, et nous obtenons aussi la propriété de Markov forte pour X. Dans la suite, nous noterons (Pt )t≥0 le semi-groupe de transition de la solution X de l’équation différentielle stochastique (2.4.8), satisfaisant pour toute fonction continue bornée f que Pt f (x) = E(f (Xt )|X0 = x). (2.5.15) 2.5. PROPRIÉTÉ DE MARKOV 77 Par la propriété de Markov, il est possible de montrer la propriété de semi-groupe, comme dans le cas brownien : Pt+s f = Pt (Ps f ) = Ps (Pt f ). (2.5.16) Sous certaines hypothèses, il est aussi possible de prouver que la loi de Xt sachant que X0 = x admet une densité. Par exemple nous avons le Théorème 2.5.2 Si les fonctions σ et b sont lipschitziennes bornées et si σ(x) ≥ σ ∗ > 0 pour tout x, alors R pour tout t > 0, il existe une fonction (x, y) 7→ pt (x, y) sur R × R, telle que Pt f (x) = pt (x, y)f (y)dy, (et ceci même si la condition initiale est déterministe). Cet effet de régularisation est dû au mouvement brownien. 2.5.1 Exemples d’équations différentielles stochastiques en biologie et écologie Voici quelques exemples de modèles développés récemment en mathématiques pour la biologie. 1 - Evolution d’un virus dans une cellule ( Lagache et Holcman [29]). Ce modèle est utilisé pour comprendre les premiers stades de l’infection virale où le virus entre dans la cellule et s’infiltre jusqu’au noyau. Le mouvement du virus comporte une succession de phases balistiques le long de microtubules (les autoroutes de la cellule) et de phases de diffusion pour passer d’un microtubule à l’autre. Le virus est absorbé dès qu’il arrive dans le noyau. La dynamique du virus peut être résumée par l’équation de diffusion bi-dimensionnelle √ dXt = b(Xt )dt + 2D dBt , plus un terme de dégradation du virus au cours du temps. 2 - Déplacement d’un poisson (Cattiaux, Chafaï, Motsch [9]). Dans ce modèle, on identifie la mer à une surface. Le mouvement du poisson est décrit en utilisant trois variables : la position X ∈ R2 , la vitesse angulaire θ ∈ R et la courbure K ∈ R. La dynamique est aléatoire et suit le système d’équations différentielles suivant. dXt = τ (θt , Kt ) dt, dθt = Kt dt, √ dKt = −Kt dt + 2α dBt . Des simulations de ce modèle donnent la figure 2.6, qui représente la trajectoire t → 1 (Xt1 , Xt2 ) avec α = 1 et τ (θ, K) = 1+2|K| (cos θ, sin θ). 78 CHAPITRE 2. POPULATIONS SPATIALES 1.5 1 x2 0.5 0 -0.5 -1 -1.5 -1.5 -1 -0.5 0 x1 0.5 1 1.5 Figure 2.6 – 3 - Agrégation de fourmis (Boi, Capasso, Morale [8], Capasso, Oelschläger [32]). L’agrégation est un phénomène très important pour expliquer la dynamique des populations. Elle concerne des populations de tous types : colonnes de fourmis, bancs de poissons, amas de cellules cancéreuses, interactions sociales. Un point de vue lagrangien consiste à considérer chaque fourmi séparément et à modéliser l’intégralité de son mouvement par une équation différentielle stochastique. On a N fourmis de positions (Xt1 , . . . , XtN ) au temps t. La position de la k-ième fourmi satisfait dXtk = H(Xt1 , . . . , XtN )dt + σN (Xt1 , . . . , XtN )dBtk . Les mouvements browniens B k sont indépendants. La fonction H doit modéliser la forte attraction chimique qui pousse les fourmis à se former en colonnes. 2.5.2 Formule d’Itô Quand t 7→ x(t) est une fonction réelle, continue et à variation finie, la formule d’intégration par parties implique que pour toute fonction f continûment dérivable, on a Z t f (x(t)) = f (x(0)) + f 0 (x(s))dx(s). (2.5.17) 0 Celle-ci devient fausse quand la fonction x est remplacée par un mouvement brownien B. Rt En effet, si (2.5.17) était vraie, en prenant f (x) = x2 , nous obtiendrions Bt2 = 2 0 Bs dBs et, puisque le processus défini par l’intégrale stochastique est encore une martingale, nous pourrions en déduire que Bt2 est une martingale. Or, nous avons vu à la Proposition 2.3.3 que le processus Bt2 − t est aussi une martingale. Par différence, le “processus” t devrait alors être une martingale, ce qui est évidemment faux. Ainsi (2.5.17) est fausse pour le mouvement brownien. Pour obtenir une formule juste, il faut ajouter un terme et supposer plus de régularité sur f . 2.5. PROPRIÉTÉ DE MARKOV 79 Théorème 2.5.3 (Formule d’Itô). Considérons X solution de l’équation différentielle stochastique (2.4.9). Soit f est une fonction de classe C 2 , bornée et à dérivées bornées, alors on a Z t Z t Z 1 t 00 0 0 f (Xs )σ(Xs )dBs + f (Xs )b(Xs )ds + f (Xt ) = f (X0 ) + f (Xs )σ 2 (Xs ) ds, 2 0 0 0 (2.5.18) 0 00 où f est la première et f la seconde dérivées de f . Preuve. Nous allons seulement donner ici une idée de la preuve avec Xt = Bt . Nous pouvons déjà remarquer que pour ti = int , Bt2 = lim n X n (Bt2i − Bt2i−1 ) i=1 = 2 lim n X n Bti−1 (Bti − Bti−1 ) + lim n i=1 n X (Bti − Bti−1 )2 . i=1 En vertu de ce que nous avons vu précedemment, nous savons que le premier terme du Rt membre de droite converge vers 2 0 Hs dBs et le deuxième converge vers la variation quadratique t. Finalement cela donne Z t 2 Bt = 2 Bs dBs + t, (2.5.19) 0 et nous retrouvons ainsi que Bt2 − t est une martingale. Si maintenant nous considérons une fonction f ∈ Cb2 , au sens où f, f 0 , f 00 sont continues et bornées, nous allons écrire un développement de Taylor de f (Bt ). Si nous considérions un développement à l’ordre 1, nous aurions f (Bt ) = f (B0 ) + n X f 0 (Bθi )(Bti − Bti−1 ), i=1 0 avec θi ∈]ti−1 , ti [. Mais alors, comme f (Bθi ) n’est pas Fti−1 -mesurable, nous ne savons pas vers quoi convergerait le terme de droite quand n tend vers l’infini. Nous sommes donc amenés à considérer un développement de Taylor de f (Bt ) à l’ordre 2. Nous avons f (Bt ) = f (B0 ) + n X i=1 n 1 X 00 f (Bti−1 )(Bti − Bti−1 ) + f (Bθi )(Bti − Bti−1 )2 . 2 i=1 0 Rt Dans ce cas, la première somme du terme de droite converge dans L2 vers 0 f 0 (Bs )dBs . Rt Montrons que le deuxième terme converge vers 12 0 f 00 (Bs )ds. Remarquons tout d’abord que par convergence des sommes de Riemann et théorème de convergence dominée, ! Z t n X lim E f 00 (Bti−1 )(ti − ti−1 ) − f 00 (Bs )ds = 0. n i=1 0 80 CHAPITRE 2. POPULATIONS SPATIALES Par ailleurs, nous avons n X E f 00 (Bθi )(Bti − Bti−1 )2 − n X i=1 ! f 00 (Bti−1 )(Bti − Bti−1 )2 i=1 n X 00 00 ≤ E sup |f (Bθi ) − f (Bti−1 )| (Bti − Bti−1 )2 i ! i=1 ≤ E sup |f 00 (Bθi ) − f 00 (Bti−1 )|2 1/2 E i n X !2 (Bti − Bti−1 )2 . i=1 Comme |θi −ti−1 | ≤ nt , que t → Bt est presque-sûrement uniformément continue sur [0, T ], 2 1/2 que f 00 est continue et bornée, nous en déduisons que E supi |f 00 (Bθi ) − f 00 (B )| t i−1 Pn 2 2 (B − B ) est borné tend vers 0 quand n tend vers l’infini. Par ailleurs, E t t i i−1 i=1 par C te t2 . De plus, par un raisonnement désormais classique (en introduisant les conditionnements adhoc), nous avons ! n n X X f 00 (Bti−1 )(ti − ti−1 ) E f 00 (Bti−1 )(Bti − Bti−1 )2 − i=1 i=1 ≤ kf 00 k∞ n X E([(Bti − Bti−1 )2 − (ti − ti−1 )]2 ) i=1 n X ≤ 2 kf 00 k∞ (ti − ti−1 )2 i=1 qui tend vers 0 quand n tend vers l’infini. En regroupant toutes ces remarques, nous obtenons finalement la formule d’Itô pour f (Bt ). Nous pourrions sans peine généraliser ce raisonnement à tout processus Xt solution d’une EDS. Remarque 2.5.4 1) Si f est de classe C 2 , la formule est encore vraie tant que chaque terme de la Rformule d’Itôa du sens. Rappelons que le terme stochastique sera bien défini t dès que E 0 (f 0 (Bs ))2 ds < ∞. 2) Comme X est solution de l’EDS (2.4.9), Xt est la somme d’une martingale et d’un terme à variation finie. Dans ce cas, on dit que (Xt , t ≥ 0) est une semi-martingale. Si f est de classe C 2 , le processus f (Xt ) garde cette structure de semi-martingale. Exemple 2.5.5 La formule d’Itô appliquée à f (x) = x2 et à X solution de l’EDS (2.4.9) donne Z t Z t 2 2 X t = X0 + 2 σ(Xs )dBs + (2Xs b(Xs ) + σ 2 (Xs ))ds. 0 0 2.5. PROPRIÉTÉ DE MARKOV 81 Il existe une version multi-dimensionnelle de la formule d’Itô, qui se démontre par des arguments analogues. Théorème 2.5.6 Considérons une solution X de (2.4.13) : pour tout 1 ≤ i ≤ d, Z t m Z t X j i i bi (Xs )ds. σi,j (Xs )dBs + Xt = X0 + j=1 0 0 Alors pour toute fonction φ de classe Cb2 de Rd dans R, nous avons φ(Xt ) = φ(X0 ) + Z tX d 0 + 1 2 Z d t X ∂i φ(Xs )bi (Xs )ds + i=1 m Z tX d X j=1 0 ∂i φ(Xs )σi,j (Xs )dBsj i=1 2 (σσ t )i,k (Xs )∂ik φ(Xs )ds. 0 i,k=1 Corollaire 2.5.7 Si X est solution de l’EDS uni-dimensionnelle (2.4.9) et si ψ(t, x) est une fonction définie sur R+ × R de classe Cb1 en t et Cb2 en x, alors Z t ∂x ψ(s, Xs )σ(Xs )dBs ψ(t, Xt ) = ψ(0, X0 ) + 0 Z t 1 2 2 + ∂t ψ(s, Xs ) + ∂x ψ(s, Xs )b(Xs ) + ∂x ψ(s, Xs )σ (Xs ) ds. 2 0 La formule d’Itô est fondamentale et extrêmement utile. Elle nous permet en particulier de montrer les liens entre solution d’une équation différentielle stochastique et solution d’une équation aux dérivées partielles, liens qui nous seront utiles pour faire des calculs explicites liés à ces diffusions. 2.5.3 Générateur - Lien avec les équations aux dérivées partielles Soit X la solution de l’équation différentielle stochastique (2.4.8). Supposons que les fonctions σ et b soient des fonctions lipschitziennes R t 0et bornées. Pour toute fonction f bornée de 2 classe C à dérivées bornées, le processus 0 f (Xs )σ(Xs ) dBs est une martingale, puisque l’intégrant est adapté, continu et borné. Nous en déduisons alors, en prenant l’espérance de chaque terme dans (2.5.18) que Z t 1 2 00 0 E(f (Xt )) = E(f (X0 )) + E f (Xs )b(Xs ) + σ (Xs )f (Xs ) ds. 2 0 Cela entraîne que la famille d’opérateurs (Pt ) définie en (2.5.15) satisfait Z t 1 2 00 0 Pt f (x) = f (x) + Ps f b + σ f (x) ds. 2 0 82 CHAPITRE 2. POPULATIONS SPATIALES Nous pouvons en déduire par théorème de convergence dominée que si f est Cb2 , la fonction t 7→ Pt f (x) est dérivable en 0 pour chaque x, et l’on définit le générateur infinitésimal A en posant Pt f (x) − f (x) 1 = f 0 (x)b(x) + σ 2 (x)f 00 (x). t→0,t>0 t 2 Af (x) = lim (2.5.20) Ainsi, pour tout x ∈ R, Z t Ps (Af )(x)ds, Pt f (x) = f (x) + 0 et nous obtenons alors l’équation de Kolmogorov progressive : d Pt f (x) = Pt (Af )(x). dt De plus, si R la loi de Xt issue de x admet une densité pt (x, y), nous aurons alors que Pt f (x) = R f (y) pt (x, y)dy et que Z tZ 1 2 00 0 f (y)pt (x, y)dy = f (x) + f (y)b(y) + σ (y)f (y) ps (x, y)dy ds, 2 R 0 R Z t Z ∂ 1 ∂2 2 − (b(y)ps (x, y)) + = f (x) + f (y) (σ (y)ps (x, y)) ds dy, ∂y 2 ∂y 2 0 R Z pour f à support compact, en utilisant une intégration par parties. Nous en déduisons que (pt (x, .)) est solution faible de l’équation aux dérivées partielles, appelée équation de Fokker-Planck : pour tout x, ∂ 1 ∂2 2 ∂p (t, x, y) = − (b(y)pt (x, y)) + (σ (y)pt (x, y)). ∂t ∂y 2 ∂y 2 (2.5.21) En dérivant la deuxième égalité de (2.5.16) par rapport à s puis en prenant s = 0, on obtient une deuxième équation, dite équation de Kolmogorov rétrograde : d Pt f (x) = A(Pt f )(x). dt Ainsi, dans le cas où la loi de Xt issue de x admet une densité pt (x, y) deux fois dérivable en x (ce qui peut être délicat à montrer), nous en déduisons que Z Pt f (x) = f (x) + t A(Ps f )(x)ds Z Z Z t ∂ 1 2 ∂2 = f (x) + b(x) ps (x, y)f (y)dy + σ (x) ps (x, y)f (y)dy ds. ∂x 2 ∂x2 0 0 2.5. PROPRIÉTÉ DE MARKOV 83 Finalement, nous obtenons pour tout y, ∂p ∂ 1 ∂2 (t, x, y) = b(x) pt (x, y) + σ 2 (x) pt (x, y). ∂t ∂x 2 ∂x2 (2.5.22) Nous avons ainsi exhibé des solutions d’équations aux dérivées partielles à partir d’objets probabilistes. Ces équations donnent une vision macroscopique (en moyenne) d’un phénomène dont les fluctuations aléatoires sont décrites par le processus de diffusion sous-jacent. 2.5.4 Applications aux temps d’atteinte de barrières Il est intéressant du point de vue des applications (voir Paragraphe 2.1) de savoir comment un processus de diffusion se comporte quand il évolue dans un intervalle borné et en particulier son comportement à la frontière de cet intervalle. Nous allons donc reprendre dans ce cadre les problèmes d’atteinte de barrières absorbantes et réfléchissantes que nous avons étudiés pour le mouvement brownien. Soit a < c deux réels. Dans ce paragraphe, nous considérons un processus de diffusion X solution de l’équation différentielle stochastique (2.4.8) avec les coefficients b et σ lipschitziens et le coefficient de diffusion σ minoré par un nombre strictement positif : pour tout x, σ(x) ≥ σ ∗ > 0. Barrières absorbantes Supposons que le processus de diffusion X, issu de x ∈]a, c[, soit absorbé dès qu’il touche le bord de l’intervalle ]a, c[. Comme les fonctions σ et b sont lipschitziennes, elles sont bornées sur [a, c]. Comme précédemment, nous notons Ta et Tc les temps d’atteinte respectifs de a et de c pour ce processus de diffusion absorbé et Ta,c = Ta ∧ Tc . Remarquons que Ta,c est un temps d’arrêt. Nous introduisons pour x ∈ [a, c] les fonctions Z x 2b(z) dzdy, Q(x) = − 2 0 σ (z) Z y Z x Z x 2b(z) f (x) = exp − dz dy = eQ(y) dy 2 0 0 σ (z) 0 et R x Q(y) Z c Z y −Q(z) Z y −Q(z) Z x e dy 2e 2e Q(y) Q(y) a g(x) = − e dz dy + R c Q(y) dz dy. e 2 σ (z) σ 2 (z) e dy a a a a a Il est facile de vérifier que les fonctions f et g sont des fonctions de classe Cb2 et sont solutions respectivement de f (0) = 0 et pour tout x, 1 2 σ (x)f 00 (x) + b(x)f 0 (x) = 0, 2 84 CHAPITRE 2. POPULATIONS SPATIALES et g(a) = g(c) = 0 et pour tout x, 1 2 σ (x)g 00 (x) + b(x)g 0 (x) = −1. 2 Proposition 2.5.8 Pour tout x ∈]a, c[, Ex ( Ta,c ) = g(x) < +∞ , Px (Ta < Tc ) = f (c) − f (x) . f (c) − f (a) Preuve. Nous appliquons la formule d’Itô à la fonction g, ce qui donne Z t∧Ta,c Z t∧Ta,c 1 2 0 00 0 g (Xs )σ(Xs )dBs + g(Xt∧Ta,c ) = g(X0 ) + σ (Xs )g (Xs ) + b(Xs )g (Xs ) ds 2 0 0 Z t∧Ta,c = g(X0 ) + g 0 (Xs )σ(Xs )dBs − t ∧ Ta,c . 0 Le processus R t∧Ta,c 0 g 0 (Xs )σ(Xs )dBs est une martingale arrêtée. Ainsi, pour tout t > 0, Ex (g(Xt∧Ta,c )) = g(x) − Ex (t ∧ Ta,c ). (2.5.23) Nous en déduisons que pour tout t > 0, Ex (t ∧ Ta,c ) ≤ 2kgk∞ , où kgk∞ est le supremum de g sur [a, c], puis en faisant tendre t vers l’infini, que Ex (Ta,c ) < +∞. En particulier, Ta,c est fini presque-sûrement et Ex (Ta,c ) = g(x) car g(a) = g(c) = 0. Appliquons maintenant la formule d’Itô à la fonction f . Z t Z t 1 2 0 00 0 f (Xt ) = f (X0 ) + f (Xs )σ(Xs )dBs + σ (Xs )f (Xs ) + b(Xs )f (Xs ) ds 2 0 0 Z t = f (X0 ) + f 0 (Xs )σ(Xs )dBs . 0 Ainsi f (Xt ) est une martingale bornée (car Xt ∈ [a, c]) et E(f (Xt )) = E(f (X0 )). Nous pouvons donc appliquer le théorème d’arrêt au temps d’arrêt Ta ∧ Tc . Ainsi Ex (f (XTa ∧Tc )) = f (a)Px (Ta < Tc ) + f (c)Px (Tc < Ta ) = f (x), et par ailleurs comme nous l’avons vu ci-dessus, Px (Ta < Tc ) + Px (Tc < Ta ) = 1. Nous en déduisons ainsi que pour tout x ∈ (a, c), Px (Ta < Tc ) = f (c) − f (x) f (x) − f (a) ; Px (Tc < Ta ) = . f (c) − f (a) f (c) − f (a) 2.6. EXERCICES 85 Barrières réfléchissantes Nous supposons maintenant que le processus part de x ∈ [a, c], évolue comme la diffusion à l’intérieur de l’intervalle et est réfléchi instantanément quand il atteint le bord. Comme dans le cas de la marche aléatoire, on a l’intuition que le processus va évoluer indéfiniment dans l’intervalle en se stabilisant quand le temps tend vers l’infini. Nous voulons en chercher la loi invariante. Celle-ci va être limite de la loi de Xt quand t tend vers l’infini. En adaptant les résultats de la section 2.5.3, nous pouvons montrer que la loi du processus réfléchi en a et en c est solution de l’équation de Fokker-Planck (2.5.21) avec les conditions ∂ ∂ pt (x, a) = ∂y pt (x, c) = 0. de Neumann aux bords ∂y Si l’on fait tendre t vers l’infini, nous obtenons que la densité limite est solution de l’équation différentielle ordinaire ∂ 1 ∂2 2 (b(y)q(y)) = (σ (y)q(y)), ∂y 2 ∂y 2 avec les conditions aux bords q 0 (a) = q 0 (c) = 0. Nous pouvons alors résoudre cette équation et obtenir la mesure invariante du processus. 2.6 Exercices Exercice 2.6.1 Un modèle de croissance d’arbres. Introduisons un modèle de chaîne de Markov qui modélise le cycle de vie des arbres. Supposons qu’il y ait 3 stades de croissance : arbre jeune, arbre à maturité et arbre vieux. Quand un arbre est vieux, il est remplacé par un arbre jeune avec probabilité p > 0. Par ailleurs, sachant que les temps de transition sont des périodes de 8 ans, la matrice de la chaîne est donnée par 1/4 3/4 0 P = 0 1/2 1/2 . (2.6.24) p 0 1−p Montrer que la chaîne est irréductible et apériodique. Calculer sa probabilité stationnaire. En déduire les temps moyens de récurrence pour chaque état, à savoir le temps qu’il faudra à un arbre d’un certain stade pour être remplacé par un arbre au même stade. Que valent ces temps pour p = 7/10 ? 86 CHAPITRE 2. POPULATIONS SPATIALES Exercice 2.6.2 1 - Soit une chaîne de Markov à valeurs entières, de matrice de transition (Pi,j ). Nous reprenons les notations du cours. Notons par Fi,i (s) la fonction génératrice (n) du temps de premier retour Ti en l’état i sachant que X0 = i et par fi,i la probabilité que ce temps soit égal à n. Montrer que (n) Pi,i = n X (k) (n−k) fi,i Pi,i . k=1 En déduire que pour tout réel s avec |s| < 1, Pi,i (s) = 1 . 1 − Fi,i (s) P (n) 2 - Montrer que l’état i est récurrent si et seulement si ∞ n=0 Pi,i = ∞. 3 - En déduire que si i ←→ j, alors i est récurrent si et seulement si j est récurrent. Exercice 2.6.3 Une marche aléatoire réfléchie. Considérons une suite de variables aléatoires indépendantes (Zn )n à valeurs dans {−1, 1} et telle que P(Y1 = 1) = p, 0 < p < 1. Définissons la chaîne de Markov réfléchie en 0 par X0 ∈ N et par la formule de récurrence Xn+1 = Xn + Zn+1 1Xn >0 + 1Xn =0 . 1 - Donner la matrice de transition de la chaîne. En déduire qu’elle est irréductible. P 2 - Considérons par ailleurs la marche aléatoire (Yn ) définie par Yn = X0 + nk=1 Zk . Montrer que presque-sûrement, Xn ≥ Yn , ∀n. Qu’en déduire sur le comportement de (Xn )n quand p > 1/2 ? 3 - Soit T0 le temps d’atteinte de 0 par la chaîne (Xn )n . Montrer que sur l’événement aléatoire {T0 ≥ n}, on a Xn = Yn . En déduire que si p ≤ 1/2, l’état 1 est récurrent pour (Xn )n . Qu’en déduire pour cette chaîne ? 4 - La chaîne (Xn )n possède-t-elle pour p ≤ 1/2 une probabilité invariante ? Commenter les résultats obtenus. Exercice 2.6.4 Modélisation de files d’attente. Une file d’attente se forme à un guichet. A chaque instant n, il y a une probabilité p qu’un client arrive et une probabilité 1 − p qu’aucun client n’arrive (0 < p < 1). Lorqu’au moins un client est en attente, à chaque instant soit un client est servi sur une unité de temps et quitte le système au temps n + 1 avec probabilité q, 0 < q < 1, soit personne ne quitte le 2.6. EXERCICES 87 système avec probabilité 1 − q. Tous les événements ainsi décrits sont indépendants entre eux. On note Xn le nombre de clients présents dans la file d’attente au temps n. 1 - Montrer que la suite (Xn )n est une chaîne de Markov irréductible dont on donnera la matrice de transition. 2 - Donner une condition nécessaire et suffisante sur p et q pour que la chaîne (Xn )n possède une unique probabilité stationnaire, notée π. Calculer dans ce cas Eπ (Xn ). 3 - On supposera que cette condition est satisfaite. Les clients étant servis dans l’ordre d’arrivée, que vaut le temps d’attente moyen d’un client sachant que le système est initialisé avec sa probabilité stationnaire. 4 - Supposons maintenant qu’entre les instants n et n + 1 peuvent arriver Yn+1 clients, les Yn étant indépendants et équidistribuées et 0 < P(Y1 = 0) < 1. On note ϕ sa fonction génératrice. Donner alors la matrice de transition de la chaîne (Xn )n . En appelant ψn la fonction génératrice de Xn , donner une relation de récurrence entre ψn+1 , φ et ψn . En déduire qu’il existe une unique probabilité stationnaire pour la chaîne (Xn )n si et seulement si E(Y1 ) < q. Commenter ce résultat. Exercice 2.6.5 Soit (Bt , t ≥ 0) un mouvement brownien. (i) Montrer que le processus B 0 , tel que pour tout t > 0 Bt0 = −Bt , définit un nouveau mouvement brownien. (c) (ii) Montrer que pour tout c > 0, le processus B c tel que Bt = 1c Bc2 t , définit un nouveau mouvement brownien. Exercice 2.6.6 Dispersion de plantes ou d’animaux (cf. Renshaw [38]) . Nous étudions ici la dispersion au cours du temps d’une population dans un espace de dimension 2, modélisée par (Xt , Yt ) = D(Bt1 , Bt2 ), où (Bt1 , Bt2 ) est un mouvement brownien bi-dimensionnel. Pour chaque t, la dispersion peut-être également mesurée par les coordonnées polaires (Rt , θt ). 1 - Donner la loi de Rt . 2 - On suppose que la population est constante et de taille N . On appelle front d’onde au temps t la valeur F (t) du rayon polaire telle que l’on puisse trouver juste un individu à une distance r > F (t). Donner la valeur de F (t) en fonction de N et t. 3 - Supposons maintenant que N croît exponentiellement en fonction de t, au taux λ > 0. Donner la valeur de F (t) en fonction de t. 4 - Ce modèle est appliqué à l’étude de la dispersion de certains chênes qui ont colonisé l’Angleterre après la dernière glaciation. Ces chênes produisent à partir de 60 ans, et pendant plusieurs centaines d’années, des glands qui vont se disperser (en particulier grâce aux oiseaux), et permettre la propagation 88 CHAPITRE 2. POPULATIONS SPATIALES spatiale de l’espèce. Nous supposerons donc que l’unité de temps est une génération (60 ans). Nous souhaitons mesurer cette dispersion et supposons qu’elle répond au modèle ci-dessus. On suppose que les premiers chênes sont apparus à la fin de l’âge de glace il y a 18000 ans et on estime à 9 × 106 le nombre de chênes matures produit par un chêne en une génération. Sachant que le front d’ondes a augmenté de 600 miles, trouver le coefficient de dispersion D par génération pour cette espèce. Exercice 2.6.7 Le processus (Xt )t≥0 est une sous-martingale si pour chaque t ≥ 0, Xt est intégrable et si pour 0 ≤ s ≤ t, E(Xt |Fs ) ≥ Xs , où Fs = σ(Xu , u ≤ s). Soit une sous-martingale positive (Xt )t≥0 . Montrer que pour tout c > 0, on a 1 P(sup Xs ≥ c) ≤ E(Xt ). c s≤t En déduire que si (Bt )t≥0 est un mouvement brownien, alors pour tout c > 0, c2 P(sup Bs ≥ c) ≤ e− 2t . s≤t Indication : on pourra étudier eθBt , pour θ > 0. Exercice 2.6.8 Loi du logarithme itéré Dans cet exercice, √ nous allons démontrer la Proposition 2.2.16. Introduisons pour t grand la fonction h(t) = 2t ln ln t. 1) Soit K ∈ R, K > 1 et pour tout n, définissons Cn = K ln(K n−1 ). 1-a- Utiliser l’exercice 2.6.7 pour montrer que P(limn { sup Bt ≥ Cn }) = 0. t≤K n Bt 1-b- En déduire que limt→∞ h(t) ≤ 1. 2) Soit N > 1 un entier et ε ∈]0, 1[. Pour tout n ∈ N, on introduit l’ensemble Fn = {BN n+1 − BN n > (1 − ε) h(N n+1 − N n )}. 2-a- Soit ϕ la densité de la loi normale centrée réduite. Montrer que Z ∞ Z ∞ ϕ(x) 1 1 = 1 + 2 ϕ(y)dy ≤ 1 + 2 ϕ(y)dy. x y x x x 2.6. EXERCICES 89 2-b- En déduire que 1 −y 2 P(Fn ) ≥ √ exp( ) 2 2π y 1 + y2 , 1 où y = (1 − ε) (2 ln ln(N n+1 − N n )) 2 . 2-c- Montrer que P(limn Fn ) = 1. 2-d- Conclure. Exercice 2.6.9 Diffusion de Feller. Soit T > 0. Soit (Zt , t ≥ 0) le processus de diffusion défini comme l’unique solution, (dans l’ensemble des processus {(Yt , t ≥ 0) ; E(supt≤T |Yt |2 ) < +∞}), de l’équation différentielle stochastique suivante p dZt = rZt dt + σZt dBt , Z0 = z0 > 0, pour r ∈ R et σ > 0. On l’appelle processus de Feller ou processus de branchement. 1 - Calculer la moyenne et la variance de ce processus. 2 - Rappeler la formule d’Itô pour ce processus. 3 -Trouver une fonction f de classe C 2 , bornée et de dérivées première et seconde bornées, définie de R+ dans R+ et telle que f (Zt ) soit une martingale, pour la filtration engendrée par le mouvement brownien. 4 - En déduire la probabilité d’extinction de cette diffusion en fonction de la condition initiale z0 . Justifier le nom de cette diffusion. Exercice 2.6.10 Diffusion de Feller logistique. On s’intéresse au processus markovien Z solution de l’équation différentielle stochastique p dZt = (rZt − cZt2 ) dt + Zt dBt , Z0 = z0 > 0, où r, c > 0 et (Bt )t≥0 est un mouvement brownien standard. On appelle cette solution diffusion de Feller logistique. 1 - Justifier que lorsque c = 0, la solution Zt de cette équation différentielle stochastique existe pour tout t ≥ 0 et est unique. √ 2 - Donner une interprétation du terme Zt dBt et du terme (rZt − cZt2 )dt en fonction des paramètres démographiques du modèle. 90 CHAPITRE 2. POPULATIONS SPATIALES 3 - Afin d’étudier √ le comportement en temps long de Z, on introduit le changement de variable Xt = 2 Zt . 3-a - Quelle est la particularité du point 0 ? 3-b - Montrer que tant que Z n’a pas atteint 0, X est solution de l’équation différentielle stochastique : dXt = q(Xt ) dt + dBt , où q(x) = − 1 rx cx3 + − , 2x 2 8 √ de valeur initiale x0 = 2 z0 . 4-a - On pose Z Q(x) := x 2q(y) dy, 1 puis Λ(x) := Rx 1 e−Q(y) dy. Vérifier que Λ0 (x)q(x) + 21 Λ00 (x) = 0. 4-b - En déduire que (Λ(Xt ))t≥0 est une martingale, puis que pour tout 0 < a < x0 < b, Px0 [Ta < Tb ] = Λ(b) − Λ(x0 ) . Λ(b) − Λ(a) Chapitre 3 Dynamique des populations Le hasard des événements viendra troubler sans cesse la marche lente, mais régulière de la nature, la retarder souvent, l’accélérer quelquefois. Condorcet (1743 - 1794), Esquisse d’un tableau historique des progrès de l’esprit humain. Les processus de vie et de mort et les processus de branchement sont des modèles fondamentaux en dynamique des populations. Nous souhaitons ici étudier, à travers certains modèles probabilistes, les variations, la croissance ou l’extinction d’une population. De nombreux domaines de biologie sont concernés par ces modèles : biologie des populations, cinétique des cellules, croissance bactériologique, réplication de l’ADN. Les questions posées sont les suivantes : pourquoi les extinctions de familles, de populations locales, d’espèces sont-elles si fréquentes ? Sont-elles conséquences de catastrophes ou de changements environnementaux externes aux populations ou sont-elles liées à des comportements intrinsèques des populations ? Si tel est le cas, comment est-ce compatible avec la fameuse loi de croissance exponentielle malthusienne en cas de ressources importantes ? Y a-t-il une dichotomie entre croissance exponentielle et extinction ? ou des formes plus lentes de croissance ? Comment évolue la population si elle persiste en temps long ? Se stabilise-telle ? Dans la suite, le terme de population désignera très généralement un ensemble d’individus, un individu pouvant tout aussi bien désigner une bactérie, un être humain porteur d’une certaine maladie, un éléphant. Nous allons tout d’abord étudier certains modèles à temps discret, décrivant principalement des dynamiques de généalogies. Nous rappellerons en particulier les principaux résultats satisfaits par le processus de Galton-Watson (appelé aussi processus de BienayméGalton-Watson) et développerons l’étude des distributions quasi-stationnaires. Puis nous étudierons en détail les processus de naissance et de mort en temps continu. 91 92 3.1 CHAPITRE 3. DYNAMIQUE DES POPULATIONS Processus de population en temps discret Il existe une grande littérature concernant ces processus et nous ne serons pas exhaustifs sur la biographie. Nous renverrons par exemple aux livres de Haccou, Jagers, Vatutin [17], Allen [1], Athreya, Ney [3]. 3.1.1 Chaînes de Markov de vie et de mort Dans les modèles en temps discret, le temps est en général exprimé en nombre de générations ou décrit un aspect périodique de la loi de reproduction (saisons, années...), mais peut aussi dans certains cas correspondre simplement à une discrétisation simple du temps continu. La variable Xn est l’effectif de la population à la génération n, et est donc à valeurs dans N. Nous étudierons le modèle général suivant. Si nous supposons qu’à un instant n, la population est de taille i ∈ N (Xn = i), alors chaque individu vivant à la génération n • meurt lorsque l’on passe de la génération n à la génération n + 1, • donne naissance à un nombre aléatoire de descendants, indépendamment des autres individus. On suppose de plus que les variables "nombre de descendants" ont une loi qui ne dépend pas de l’individu de la n-ième génération dont les descendants sont issus, mais qui peut éventuellement dépendre de i. On la note Qi = (qli , l ∈ N). Ainsi, qli est la probabilité qu’un individu issu d’une population de taille i donne naissance, à la génération suivante, à l individus. • En outre, il y a possibilité d’immigration d’un nombre aléatoire d’individus, indépendamment du processus de naissance et mort, dont la loi η i = (ηli , l ∈ N) peut aussi dépendre de i. Ainsi ηli désigne la probabilité qu’un nombre l de migrants rejoigne une population de taille i à la génération suivante. Lorsque les migrants sont arrivés, ils se reproduisent et meurent comme les autres individus de la population. Construction de la chaîne : On se donne sur un espace (Ω, A) une famille de variables aléatoires à valeurs entières (X0 , (Yn,i,k )n,i,k≥0 , (Zn,i )n,i≥0 ). La variable aléatoire X0 modélise le nombre d’individus au temps 0, Yn,i,k le nombre d’enfants du k-ième individu de la n-ième génération, si le nombre total d’individus de cette génération est i, et Zn,i modélise le nombre de migrants arrivant à la (n + 1)-ième génération, sous la même hypothèse Xn = i. Définition 3.1.1 Pour chaque probabilité µ sur N, on note Pµ l’unique probabilité sur l’espace (Ω, A) sous laquelle ces variables sont indépendantes et telle que • X0 est de loi µ. 3.1. PROCESSUS DE POPULATION EN TEMPS DISCRET 93 • Pour chaque n, i, k, la variable aléatoire Yn,i,k est de loi Qi . • Pour chaque n, i, la variable aléatoire Zn,i est de loi η i . Partant de X0 , on définit donc les variables aléatoires Xn par récurrence : Xn+1 = i X Yn,i,k + Zn,i si Xn = i, pour i ∈ N, (3.1.1) k=1 avec la convention qu’une somme "vide" vaut 0. On note Pi la probabilité Pµ lorsque µ est la masse de Dirac en i c’est à dire quand la population initiale comporte i individus ( X0 = i). La variable aléatoire Xn+1 est fonction de Xn et des variables (Yn,i,k , Zn,i , i, k ≥ 0). Il est facile de montrer grâce aux propriétés d’indépendance que (Xn )n est une chaîne de Markov. Ses probabilités de transition sont données pour tous i, j par X qki 1 qki 2 · · · qki i ηri . Pi,j = P(Xn+1 = j|Xn = i) = (3.1.2) k1 ,k2 ,...,ki ,r∈N,k1 +···+ki +r=j Définition 3.1.2 1) Lorsque les probabilités Qi et η i sont indépendantes de i, la dynamique de la population est dite densité-indépendante. Dans le cas contraire, elle est dite densité-dépendante. 2) Il n’y a pas d’immigration lorsque η0i = 1 pour tout i, le cas où la loi η i ne charge que 0. La population est alors une population isolée. On étudiera tout d’abord des modèles de population densité-indépendante et sans immigration, où la loi de reproduction ne dépend pas du nombre d’individus présents. Ce modèle ne peut être réaliste que dans des situations de ressources infinies. En effet, dans ce cas, les individus ne sont pas en compétition pour survivre et chacun peut se reproduire librement et indépendamment des autres. En revanche, si les ressources (alimentaires par exemple) sont limitées, les individus vont entrer en compétition et le nombre d’individus dans la population aura un effet sur la loi de reproduction. Cette densité-dépendance va introduire de la non-linéarité dans les modèles mathématiques. Le modèle peut être compliqué de façon à décrire la dynamique de plusieurs sous-populations en interaction ou avec mutation. Donnons deux exemples de modèles multi-types avec interaction. Exemple 3.1.3 Deux populations en interaction. Dans cet exemple, on considère une population formée d’individus de deux types a = 1 ou a = 2. Il n’y a pas d’immigration. (1) (2) La génération n comprend Xn individus de type 1, et Xn individus de type 2. La loi de reproduction d’un individu de type 1, (resp. de type 2), dans une population de i1 1 ,i2 individus de type 1 et i2 individus de type 2, est la probabilité Qi11 ,i2 = (Qi1,l )l∈N , (resp. 94 CHAPITRE 3. DYNAMIQUE DES POPULATIONS 1 ,i2 )l∈N ). Dans ce modèle, les individus de type 1 fabriquent des descendants Qi21 ,i2 = (Qi2,l de type 1, mais la loi de reproduction dépend de la composition de la population en types 1 et 2. Cela peut être un exemple de modèle de proie-prédateur ou d’hôte-parasite. Pour définir rigoureusement cette dynamique, nous considérons une suite de variables a aléatoires (Yn,i ; n, i1 , i2 , k ∈ N, a = 1 ou 2) indépendantes entre elles et de loi Qia1 ,i2 et 1 ,i2 ,k (1) (2) nous notons par X0 et X0 les effectifs initiaux respectivement de type 1 et de type 2. On pose alors, pour a = 1 ou a = 2, (a) Xn+1 = ia X a Yn,i 1 ,i2 ,k si Xn(1) = i1 , Xn(2) = i2 , pour tous i1 , i2 ∈ N. k=1 (1) (2) Le processus (Xn , Xn ) est une chaîne de Markov à valeurs dans N2 , de matrice de transition (1) (2) P(i1 ,i2 ),(j1 ,j2 ) = P(Xn+1 = j1 , Xn+1 = j2 |Xn(1) = i1 , Xn(2) = i2 ) i1 i2 X Y Y i1 ,i2 1 ,i2 = Q1,kl Qi2,r . m k1 +···+ki1 =j1 ;r1 +···+ri2 =j2 l=1 m=1 Exemple 3.1.4 Population isolée avec mutation. La situation est semblable à celle de l’exemple 3.1.3, mais chaque descendant d’un individu de type 1 (resp. de type 2) peut "muter" et donc devenir de type 2 (resp. de type 1) avec la probabilité α1 (resp. α2 ), les mutations étant indépendantes de la reproduction. Ce modèle peut être utilisé en épidémiologie pour représenter une population d’individus sains (de type 1) et infectés (1) (2) (de type 2). La chaîne (Xn , Xn ) est encore markovienne, de matrice de transition donnée par P(i1 ,i2 ),(j1 ,j2 ) = X i1 Y A(i1 ,i2 ,j1 ,j2 ) l=1 1 ,i2 Qi1,k l i2 Y 0 kl kl0 0 rm i1 ,i2 rm kl −kl0 α (1 − α ) Q α (1 − α2 )rm −rm , 1 1 1,r 2 m 0 0 kl rm m=1 0 où A(i1 , i2 , j1 , j2 ) est l’ensemble des familles d’entiers ((kl , kl0 , rm , rm ), l = 1, · · · , i1 ; m = 0 0 1, · · · , i2 ) telles que 0 ≤ kl ≤ kl et 0 ≤ rm ≤ rm , avec j1 = (k1 − k10 ) + · · · + (ki1 − ki01 ) + r10 + · · · + ri02 et j2 = k10 + · · · + ki01 + (r1 − r10 ) + · · · + (ri2 − ri02 ) . Les problèmes qui se posent naturellement pour ce type de modèles concernent le comportement de la chaîne (Xn )n quand n tend vers l’infini. Par exemple, y a-t-il extinction de toute la population (Xn → 0) ou d’une sous-population d’un type particulier, ou un régime stationnaire apparaît-il (Xn converge en un certain sens) ou a-t-on "explosion" de la population (Xn → +∞) ? Si (Xn )n tend vers l’infini, peut-on trouver une normalisation 3.1. PROCESSUS DE POPULATION EN TEMPS DISCRET 95 convenable (une suite an tendant vers 0) telle que an Xn converge ? Cela donnera un ordre de grandeur de la taille de la population et de la vitesse de convergence. D’autres problèmes plus complexes peuvent se poser. Par exemple, que se passe-t-il lorsque l’on étudie le comportement d’une population conditionnellement au fait qu’elle n’est pas éteinte à l’instant n ? C’est l’objet de la quasi-stationnarité qui donne un sens mathématique à des stabilités avant extinction de la population. Nous n’allons pas pouvoir aborder ces problèmes dans toute leur généralité. Nous allons tout d’abord les développer dans le cadre le plus simple du processus de Galton-Watson. 3.1.2 Le processus de Bienaymé-Galton-Watson La chaîne de Markov de vie et de mort la plus simple est la chaîne de Galton-Watson ou de Bienaymé-Galton-Watson que nous abrégerons en BGW. C’est une chaîne sans immigration et densité-indépendante. Pour chaque i, la loi de reproduction est la probabilité sur N Q = (ql , l ∈ N) et la probabilité d’immigration η i est la masse de Dirac en 0. Nous allons étudier la dynamique du nombre Xn d’individus de cette population au cours des générations successives n = 0, 1, 2, . . . en supposant que chacun des Xn individus de la n-ième génération engendre un nombre aléatoire Yn,k d’enfants (1 ≤ k ≤ Xn ) de sorte que Xn+1 = Xn X Yn,k (n ≥ 0) . (3.1.3) k=1 Les variables aléatoires Yn,k sont supposées indépendantes entre elles et de même loi Q, qui est la loi d’une variable générique Y . Cette loi est caractérisée par sa fonction génératrice P k Y g(s) = E(s ) = k qk s pour tout s ∈ [0, 1]. Dans toute la suite, nous excluons le cas où g(s) ≡ s. La figure 3.1 représente les individus des générations 0 à 3, lorsque X0 = 1, Y0,1 = 2, Y1,1 = 3, Y1,2 = 1, Y2,1 = 2, Y2,2 = 0, Y2,3 = 1, Y2,4 = 3. Cette figure représente un arbre aléatoire. Dans des situations plus compliquées, il est possible de structurer cet arbre en ajoutant une marque à chaque branche, correspondant par exemple au type de l’individu et incluant des mutations possibles du type ou à l’âge de l’individu ou à sa position dans l’espace. Si l’on regarde la figure de gauche à droite, on observe la dynamique de la population dans le sens physique du temps. Si en revanche, nous la considérons de droite à gauche, nous observons les lignes ancestrales des individus présents au temps 3. Ces deux aspects correspondent essentiellement aux chapitres 3 et 4 de cet ouvrage. Dans le chapitre 3, nous allons étudier la dynamique temporelle des populations et dans le chapitre 4, nous allons chercher à comprendre leur généalogie. Le processus de Bienaymé-Galton-Watson est le prototype le plus simple de processus de branchement, défini pour des temps et un espace d’états discrets. Ce modèle a été 96 CHAPITRE 3. DYNAMIQUE DES POPULATIONS . X0 = 1 X1 = 2 X2 = 4 X3 = 6 Figure 3.1 – L’arbre généalogique du processus de branchement motivé par l’étude de la survivance des familles nobles françaises (Bienaymé, 1845) ou celle des familles aristocrates anglais (Galton, 1873) et plus précisément par l’étude de la non-extinction des descendants mâles qui seuls transmettaient le nom (Voir Bacaer [4]). N hommes adultes d’une nation qui portent des noms de famille différents partent coloniser un pays. On suppose qu’à chaque génération, la proportion d’hommes qui ont l garçons est ql , l ∈ N. Que peut-on dire de l’évolution du nombre d’hommes portant tel ou tel nom, au cours du temps ? De nombreux phénomènes de dynamique de populations peuvent en fait être modélisés par un tel processus, dont la description est simple, mais qui présente néanmoins un comportement non trivial. Le modèle décrit aussi bien la croissance d’une population de cellules, que d’une épidémie dans une population, ou la réplication d’une molécule d’ADN en génétique. Considérons par exemple (voir Kimmel-Axelrod [27], Delmas-Jourdain [11]) une macro-molécule d’ADN qui consiste en une chaîne de N nucléotides. En une unité de temps, cette chaîne est répliquée, chaque nucléotide étant copié de façon correcte avec probabilité p et indépendamment des autres nucléotides. A l’issue de la réplication, la molécule est détruite avec probabilité q ou bien donne naissance à deux molécules avec probabilité 1 − q. La probabilité de disparition de la population de macro-molécules correctes est alors égale à la probabilité d’extinction d’un nom de famille dans le cas où q0 = q (destruction), q1 = (1 − q)(1 − pN ) (non destruction mais réplication incorrecte), q2 = (1 − q)pN (non destruction et réplication correcte), et qk = 0 pour k ≥ 3. Il est facile de calculer l’espérance de la loi de reproduction : E(Y ) = (1 − q)(1 − pN ) + 2 (1 − q)pN = (1 − q)(1 + pN ). Résultats élémentaires Une propriété immédiate, mais fondamentale, est que 0 est un état absorbant : si Xn = 0, alors Xn+1 = 0. Le temps d’atteinte de 0, c’est à dire T0 = inf{n ≥ 0, Xn = 0} 3.1. PROCESSUS DE POPULATION EN TEMPS DISCRET 97 est appelé temps d’extinction et vérifie Xn = 0 si et seulement si n ≥ T0 . C’est un temps d’arrêt pour la filtration (F n )n où F n = σ(Xk , k ≤ n). Il est important, du point de vue biologique, de connaître la loi du temps d’extinction, et en particulier la probabilité d’extinction partant d’un nombre i d’individus, pour i ≥ 1 : pi = Pi (T0 < +∞). Bien-sûr, p0 = 1. Proposition 3.1.5 Le processus de Galton-Watson (Xn )n possède la propriété de branchement : sa loi (en tant que processus) sous Pi est la même que la loi de (Zn1 + · · · + Zni )n où les (Znj )n , j ≥ 1) sont des chaînes de Markov indépendantes entre elles et qui ont toutes même loi que la chaîne (Xn )n sous P1 . Remarque : La propriété de branchement permet de ramener l’étude de Pi à celle de P1 . P Preuve. Par (3.1.3) et X0 = i, nous pouvons écrire Xn = ij=1 Znj , où Znj désigne le nombre d’individus vivant à l’instant n, et descendant du j-ième individu initial. La propriété de branchement pour une chaîne de Markov de type (3.1.1) est caractéristique des chaînes BGW. En effet, la propriété de branchement implique que la loi (Pi,j , j ∈ N) est la puissance i-ième de convolution de la loi (P1,j , j ∈ N). En d’autres termes, on a (n) (3.1.2) avec qji = P1,j et η0i = 1. La chaîne est donc BGW. Puisque la loi (Pi,j )j∈N est la (n) puissance i-ième de convolution de la loi (P1,j )j∈N , nous pouvons calculer plus facilement certaines quantités associées à une population initiée par i individus. Par exemple, la probabilité de s’éteindre avant le temps n vaut Pi (T0 ≤ n) = P1 (T0 ≤ n)i . (3.1.4) Pour le prouver, il suffit de remarquer que le temps d’extinction de Zn1 + · · · + Zni est le maximum des temps d’extinction des Znj , 1 ≤ j ≤ i, qui sont indépendants les uns des autres. Certaines lois de reproduction entraînent des comportements asymptotiques triviaux : • Si q1 = 1, on a Xn = X0 et l’effectif de la population ne varie pas. • Si q1 < 1 et si q0 + q1 = 1, on a Xn+1 ≤ Xn . L’effectif de la population décroît et T0 < +∞ P1 -p.s.. Si q0 = 1, T0 = 1 P1 -p.s. et si q0 < 1, P1 (T0 = k) = q0 q1k−1 . (T0 suit une loi géométrique). • Si q1 < 1 et q0 = 0, alors Xn+1 ≥ Xn et l’effectif de la population croît. On a T0 = +∞ P1 -p.s. 98 CHAPITRE 3. DYNAMIQUE DES POPULATIONS Dans la suite nous éliminerons ces 3 cas en supposant que q0 > 0 , q0 + q1 < 1. (3.1.5) Proposition 3.1.6 L’état 0 est absorbant et sous (3.1.5), les autres états sont transients. Si de plus d est le PGCD des i ≥ 1 tels que qi > 0, les classes sont la classe C = dN∗ = {nd, n ≥ 1}, et tous les singletons {i} avec i ∈ / C. Preuve. D’après (3.1.3), si i ≥ 1, on a Pi,0 ≥ (q0 )i > 0, donc i mène à 0, alors que 0 ne mène pas à i ≥ 1 puisque 0 est absorbant. L’état i ne peut donc pas être récurrent. Les variables aléatoires Yn,k prennent presque-sûrement leurs valeurs dans l’ensemble {i, qi > 0}, qui est contenu dans C ∪ {0}, de sorte que pour tout n ≥ 1, Xn appartient à C ∪ {0} presque-sûrement. Par suite, un état i ne peut mener qu’à 0 et aux points de C et tout singleton non contenu dans C est une classe. Du point de vue des propriétés ergodiques ou de la stationnarité éventuelle de la chaîne (Xn )n , tout est dit dans la proposition précédente : il y a une seule classe de récurrence {0} et une seule probabilité invariante, la masse de Dirac en 0. La chaîne est stationnaire si et seulement si elle part de 0 et elle reste alors toujours en 0. Sinon, du fait que tous les états non nuls sont transients, la chaîne n’a que deux comportements possibles, soit elle converge vers 0, soit elle converge vers +∞. Du point de vue des applications en revanche, nous allons pouvoir répondre à un certain nombre de questions concernant le calcul des probabilités d’extinction pi , la loi du temps d’extinction T0 , la vitesse d’explosion si (Xn )n tend vers l’infini, etc. Le comportement à l’infini Pour les chaînes BGW, nous allons pouvoir décrire le comportement presque-sûr de la chaîne, quand n tend vers l’infini. L’outil principal sera la fonction génératrice g de la loi de reproduction Q définie pour s ∈ [0, 1] par g(s) = ∞ X qk sk = E(sY ), (3.1.6) k=0 où Y est une variable aléatoire de loi Q (le nombre d’enfants d’un individu). Notons par m et m2 les deux premiers moments de Q (qui peuvent éventuellement être infinis). m= ∞ X k=0 kqk ; m2 = ∞ X k 2 qk . (3.1.7) k=0 On sait que g est croissante convexe. Elle est de classe C ∞ sur [0, 1[ et est une fois (resp. deux fois) dérivable à gauche en s = 1 si et seulement si m < ∞ (resp. m2 < ∞), et dans ce cas, m = g 0 (1) ; m2 − m = g 00 (1). 3.1. PROCESSUS DE POPULATION EN TEMPS DISCRET 99 (Pour les propriétés de la fonction génératrice g, voir [?]). Pour n ≥ 1, notons par gn la n-ième itérée de g, c’est à dire g ◦ g ◦ · · · ◦ g, n fois. Ainsi gn+1 = g ◦ gn = gn ◦ g. Etendons la définition par g0 (s) = s. Enfin, définissons s0 = inf{s ∈ [0, 1], g(s) = s}. (3.1.8) Remarquons que s0 > 0 car q0 > 0 et s0 ≤ 1 car g(1) = 1. L’étude du comportement asymptotique de la suite (gn )n se ramène à un argument de suite récurrente, développée dans le lemme suivant. Lemme 3.1.7 a) Si g 0 (1) ≤ 1, alors s0 = 1 et gn (s) croît vers 1 lorsque n tend vers l’infini, pour tout s ∈ [0, 1]. b) Si g 0 (1) > 1, l’équation g(v) = v possède une solution unique s0 dans ]0, 1[ et gn (s) croît vers s0 , (respectivement décroît vers s0 ), lorsque n tend vers l’infini, pour tout s ∈ [0, s0 ], (respectivement tout s ∈ [s0 , 1[). Preuve. Nous nous reportons à la figure 3.2 pour cette preuve. L’application s → g(s) de l’intervalle [0, 1] dans lui-même est croissante et strictement convexe. De plus g(1) = 1. Comme nous avons exclu le cas g(s) ≡ s, la courbe g ne coupe pas ou au contraire coupe la diagonale du carré [0, 1]2 en un point distinct de (1, 1), selon que g 0 (1) ≤ 1 ou que g 0 (1) > 1. Ainsi, selon les cas, l’équation de point fixe g(v) = v n’a pas de solution ou possède une unique solution dans ]0, 1[, c’est à dire que soit s0 = 1, soit s0 < 1. Figure 3.2 – La fonction g et ses itérées dans les deux cas m ≤ 1 et m > 1. 100 CHAPITRE 3. DYNAMIQUE DES POPULATIONS a) Lorsque g 0 (1) ≤ 1, nous avons s ≤ g(s) et donc gn (s) ≤ gn+1 (s) (puisque gn+1 = g ◦ gn ) pour tout s. La limite limn gn (s) est inférieure à 1 et solution de g(u) = u. Elle ne peut alors valoir que 1. b) De même, si g 0 (1) > 1, nous avons s ≤ g(s) ≤ s0 ou s ≥ g(s) ≥ s0 selon que s ≤ s0 ou que s ≥ s0 ; il s’en suit que gn (s) croît (resp. décroît) avec n selon le cas. La limite limn gn (s), qui est solution de g(u) = u et est strictement inférieure à 1 pour s 6= 1, est alors nécessairement égale à s0 . Nous avons également les propriétés suivantes. Lemme 3.1.8 1) Pour tout s ∈ [0, 1[, 1 − gn (s) ≤ mn (1 − s). 2) Si m = 1 et m2 < ∞, alors pour tout s ∈ [0, 1[, la suite 1 − gn (s) est équivalente à 2 quand n → ∞. n(m2 −1) Preuve. L’inégalité 1 − g(s) ≤ m(1 − s) est évidente, puisque g 0 est croissante sur [0, 1] et que g 0 (1) = m. En itérant cette inégalité, nous obtenons immédiatement l’assertion 1). Posons a = m22−1 > 0 (car m = 1), et un développement limité de g au voisinage de s = 1 montre que pour tout s ∈ [0, 1[, 1 − g(s) = (1 − s)(1 − (1 − s)(a + γ(s))), où lim γ(s) = 0, s→1 0 00 puisque g (1) = 1 et g (1) = m2 − 1 = 2a. Par suite, 1 1 = + a + Γ(s), où lim Γ(s) = 0. s→1 1 − g(s) 1−s Nous en déduisons que 1 1 = + a + Γ(gj (s)) 1 − gj+1 (s) 1 − gj (s) et en réitérant ces égalités pour j = n − 1, · · · , 2, 1, nous obtenons finalement que n−1 X 1 1 = + na + ∆n (s), où ∆n (s) = Γ(gj (s)). 1 − gn (s) 1−s j=0 Pour s ∈ [0, 1[ fixé, et quand j → ∞, on sait que gj (s) → 1 donc Γ(gj (s)) → 0. Cela entraîne que ∆nn(s) → 0 quand n tend vers l’infini, comme limite de Césaro de la suite (Γ(gn (s)))n . Ainsi, quand n tend vers l’infini, 1 − gn (s) = 1 na 1 + Nous avons donc montré 2). 1 1 na(1−s) + ∆n (s) na ∼n→+∞ 1 2 = . na n(m2 − 1) 3.1. PROCESSUS DE POPULATION EN TEMPS DISCRET 101 Proposition 3.1.9 Soit Gn la fonction génératrice de Xn . Alors ∀ n ≥ 0, Gn+1 (s) = Gn (g(s)) . (3.1.9) En particulier, si X0 = i, nous en déduisons que Gn (s) = (gn (s))i Ei (Xn ) = E(Xn |X0 = i) = mn i. (3.1.10) (3.1.11) Preuve. L’indépendance de Xn et des (Yn,k , n ≥ 1, k ≥ 1) entraîne que X Pk Gn+1 (s) = E(s i=1 Yn,i 1{Xn =k} ) k = X (g(s))k P(Xn = k) = Gn (g(s)). k (3.1.10) en découle facilement, puis en dérivant cette expression et en faisant tendre s vers 1, nous obtenons (3.1.11). Ce résultat va nous permettre d’étudier le comportement asymptotique de la suite (Xn )n≥0 et de calculer notamment la probabilité d’extinction de la population. Remarque 3.1.10 L’inégalité (3.1.11) entraîne que la population s’éteint lorsque m = E(Y ) < 1. En effet, il est facile de voir que Pi (Xn 6= 0) ≤ Ei (Xn ) = mn i . (3.1.12) Nous allons maintenant énoncer un résultat plus complet. L’étude suivante va nous amener à distinguer 3 cas : • Le cas sous-critique, quand m < 1, • Le cas critique, quand m = 1, • Le cas surcritique, quand m > 1. Théorème 3.1.11 1) Dans les cas sous-critique et critique (lorsque m ≤ 1), la probabilité d’extinction vaut pi = Pi (T0 < +∞) = 1. La population s’éteint presque sûrement. 2) Dans le cas sous-critique, le temps moyen d’extinction Ei (T0 ) < +∞ est fini, tandis que dans le cas critique, Ei (T0 ) = +∞. 3) Dans le cas surcritique (m > 1), la suite Xn converge presque-sûrement sous Pi vers une limite X∞ qui ne prend que les valeurs 0 et +∞ avec les probabilités pi = Pi (T0 < +∞) = Pi (X∞ = 0) = si0 où s0 ∈]0, 1[ a été défini en (3.1.8). , Pi (X∞ = +∞) = 1 − si0 , 102 CHAPITRE 3. DYNAMIQUE DES POPULATIONS Preuve. Remarquons que Xn+1 = 0 dès que Xn = 0, et les événements {Xn = 0} croissent avec n. L’événement A =“ Extinction de la population ” est donc naturellement défini par A = {T0 < +∞} = ∪n ↑ {Xn = 0} (3.1.13) et sa probabilité est donnée par P(A) = lim ↑ Gn (0) . n La démonstration du théorème repose donc sur l’étude de la suite (Gn (0))n , avec Gn (0) = (gn (0))i . Nous allons utiliser le Lemme 3.1.7. 1) Puisque {T0 ≤ n} = {Xn = 0}, la probabilité Pi (T0 ≤ n) = P1 (T0 ≤ n)i = (gn (0))i (3.1.14) converge vers si0 quand n tend vers l’infini. Cela entraîne que Pi (T0 < +∞) = 1 si m ≤ 1 d’où la première partie du théorème. De plus, Pi (T0 < +∞) = si0 quand m > 1. 2) On a aussi Ei (T0 ) = X n≥0 Pi (T0 > n) = X (1 − gn (0)i ). n≥0 Le Lemme 3.1.8 entraîne immédiatement que si m < 1, alors E1 (T0 ) < +∞, puisque dans ce cas, la série de terme général mn est convergente. De plus, nous avons vu que le temps d’extinction de Xn sachant que X0 = i est le maximum des temps d’extinction des sous-populations issues de chaque individu de la population initiale. Ainsi, pour tout i ∈ N∗ , Ei (T0 ) < +∞. Si m = 1 et m2 < +∞, alors par la deuxième partie du Lemme 3.1.8, nous savons que E1 (T0 ) = +∞ (la série harmonique diverge), ce qui entraîne alors que Ei (T0 ) = +∞ pour tout i ≥ 1. L’assertion (2) du théorème est donc montrée. Si m2 = ∞, la preuve est plus délicate mais l’idée intuitive suivante peut se justifier mathématiquement. Dans ce cas, la loi de branchement va charger plus les grandes valeurs entières et l’espérance du temps d’extinction devrait être plus grande que dans le cas où m2 est fini, d’où Ei (T0 ) = ∞. 3) Il reste à étudier le comportement asymptotique de Xn quand m > 1. Lorsque m > 1, l’extinction n’est pas certaine puisque P(A) = s0 < 1. Rappelons que l’état 0 est absorbant et que les autres états sont transients. Donc deux cas seulement sont possibles : ou bien Xn = 0 à partir d’un certain rang (c’est l’extinction), ou bien Xn → +∞ (c’est l’explosion). Ces deux événements complémentaires ont pour probabilités respectives si0 et 1 − si0 . Cela conclut la preuve du théorème. 3.1. PROCESSUS DE POPULATION EN TEMPS DISCRET 103 La formule (3.1.14) donne en fait la fonction de répartition du temps d’extinction T0 , et donc sa loi, sous P1 et sous Pi . On a : P1 (T0 = n) = 0 gn (0) − gn−1 (0) 1 − s0 n=0 n ∈ N∗ n = +∞. si si si (3.1.15) Remarquons que dans le cas surcritique, T0 est une variable aléatoire à valeurs dans N ∪ {+∞}. Remarque 3.1.12 Nous avons montré que, dans le cas où la population initiale est composée de i individus, nous nous trouvons dans l’un des 3 cas suivants. • Lorsque m < 1, la probabilité de " non-extinction à l’instant n " tend vers 0 à une vitesse géométrique puisque, comme on l’a vu, Pi (Xn 6= 0) ≤ mn i. • Lorsque m = 1, cette même probabilité tend beaucoup plus lentement vers zéro. Plus précisément, a vu que si m2 < ∞, Pi (Xn 6= 0) ∼ 2i n(m2 − 1) lorsque n → ∞. • Lorsque m > 1, Xn tend vers 0 ou vers +∞. Dans le cas surcritique, il est intéressant de préciser à quelle vitesse Xn tend vers l’infini, sur l’ensemble {T0 = ∞}, qui est donc de probabilité strictement positive 1 − s0 . Nous nous limitons au cas où m2 < ∞. Dans la suite, nous noterons par σ 2 la variance de Y . Xn Théorème 3.1.13 Si m > 1 et m2 < ∞, la suite m n converge Pi presque-sûrement vers une variable aléatoire U qui est presque-sûrement strictement positive sur l’ensemble {T0 = ∞} et telle que Ei (U ) = i. Ce résultat nous dit que sur l’ensemble où il n’y a pas extinction, la croissance de Xn vers +∞ est exponentielle (en mn ). C’est l’expression probabiliste de la loi de Malthus. Xn Preuve. Posons Un = m n . Considérons la filtration (F n )n formée de la suite croissante de tribus F n = σ(Xk , k ≤ n). Comme m et m2 sont les deux premiers moments des variables Yn,k , la formule (3.1.3) entraîne que ! Xn X Ei (Xn+1 | F n ) = Ei Yn,k | F n = m Xn ; k=1 !2 Xn X 2 Ei (Xn+1 |F n ) = Ei Yn,k | F n = Ei k=1 Xn X ! (Yn,k )2 | F n k=1 2 2 = m2 Xn + m Xn (Xn − 1) = σ Xn + m2 Xn2 , + Ei Xn X ! Yn,k Yn,k0 | F n k6=k0 =1 (3.1.16) 104 CHAPITRE 3. DYNAMIQUE DES POPULATIONS et donc 2 Ei (Un+1 |F n ) = Un ; Ei (Un+1 |F n ) = Un2 + σ2 Un . mn+2 (3.1.17) Par suite, Ei (Un ) = i et, comme m > 1, en réitérant en n, nous obtenons que 2 ) Ei (Un+1 = Ei (Un2 ) n i σ2 iσ 2 X −j iσ 2 2 + n+2 = i + 2 . m ≤ i2 + m m j=0 m(m − 1) Nous en déduisons que Un est une martingale dont les moments d’ordre 2 sont uniformément bornés. Elle converge donc Pi presque-sûrement et en moyenne vers U quand n tend vers l’infini. (Analogue en temps discret du Théorème 2.3.6). En particulier, Ei (U ) = i. Il reste à montrer que U > 0, Pi presque-sûrement sur {T0 = ∞}. Posons ri = Pi (U = 0). En vertu de la propriété de branchement, la loi de U sous Pi est la même que celle de U 1 + · · · + U i , où les U j sont des variables aléatoires indépendantes de même loi que U sous P1 . Nous en déduisons que ri = (r1 )i . La propriété de Markov donne P1 (U = 0|F 1 ) = PX1 (U = 0) = r1X1 . En prenant l’espérance, nous obtenons r1 = E1 (r1X1 ) = g(r1 ). Ainsi, r1 est solution de l’équation g(s) = s, équation qui dans [0, 1] admet les deux solutions s0 et 1. Or E1 (U ) = 1 implique que r1 = P1 (U = 0) < 1, donc nécessairement r1 = s0 et ri = si0 , c’est à dire que Pi (U = 0) = Pi (T0 < ∞). Mais à l’évidence, {T0 < ∞} ⊂ {U = 0}, et donc nécessairement la variable aléatoire U est strictement positive Pi presque-sûrement sur {T0 = ∞}. Cas sous-critique : Analyse fine de l’extinction Nous nous plaçons ici dans le cas m < 1 et nous souhaitons étudier finement les propriétés du temps d’extinction en fonction de la condition initiale. Supposons que m2 < +∞ et notons comme précédemment σ 2 = V ar(Y ). Proposition 3.1.14 1) Pour tout i, n ∈ N∗ , i(1 − m) mn+1 σ 2 (1 − mn ) + mn+1 (1 − m) (i − 1)mn 1− 2 ≤ Pi (Xn > 0) ≤ i mn . 2) Si n est suffisamment grand, nous avons i 1 − m n+1 m ≤ Pi (Xn > 0) ≤ i mn . 2 σ Etudions tout d’abord le cas où il y a un seul ancêtre. 3.1. PROCESSUS DE POPULATION EN TEMPS DISCRET 105 Lemme 3.1.15 (1 − m) mn+1 ≤ P1 (Xn > 0). σ 2 (1 − mn ) + mn+1 (1 − m) (3.1.18) Preuve. Remarquons que σ 2 = m2 − m2 . Nous avons (E1 (Xn 1Xn >0 ))2 ≤ E1 (Xn2 ) P1 (Xn > 0), d’où E1 (Xn )2 m2n P1 (Xn > 0) ≥ = . E1 (Xn2 ) E1 (Xn2 ) Or, comme nous l’avons montré précédemment, E1 (Xn2 |F n−1 ) = m2 Xn−1 + m2 Xn−1 (Xn−1 − 1). D’où E1 (Xn2 ) = (m2 − m2 )E1 (Xn−1 ) + m2 E1 ((Xn−1 )2 ) = σ 2 mn−1 + m2 E1 ((Xn−1 )2 ) = σ 2 mn−1 + mn + . . . + m2(n−1) + m2n E1 ((X0 )2 ) = σ 2 mn−1 1 − mn + m2n . 1−m Nous en déduisons le Lemme 3.1.15. Prouvons maintenant la Proposition 3.1.14. Nous avons déjà vu précédemment que Pi (Xn > 0) ≤ i P1 (Xn > 0) ≤ i E1 (Xn ) = i mn . Par ailleurs, nous avons Pi (Xn > 0) = 1 − Pi (Xn = 0) = 1 − (P1 (Xn = 0))i = 1 − (1 − P1 (Xn > 0))i . Nous utilisons alors le fait que ∀k ∈ N, x ∈ [0, 1], 1 − (1 − x)k ≥ kx − k(k − 1) 2 x, 2 dû au fait que k Z kx − (1 − (1 − x) ) = k(k − 1) x Z du 0 0 u (1 − y)k−2 dy. 106 CHAPITRE 3. DYNAMIQUE DES POPULATIONS Nous avons alors i−1 Pi (Xn > 0) ≥ i P1 (Xn > 0) 1 − P1 (Xn > 0) , 2 d’où la première assertion de la proposition. Quand n est grand, le terme prépondérant dans le terme de droite de l’inégalité (3.1.18) vaut 1−m mn+1 , ce qui donne la deuxième assertion. σ2 Application à l’extinction des baleines noires en Atlantique du Nord (cf. HaccouJagers-Vatutin [17]) L’unité de temps est un an. Nous nous intéressons à la loi de reproduction des baleines femelles. La probabilité de mourir est β ∈ [0, 1] et la probabilité d’avoir un petit femelle (en un an) est α ∈ [0, 1]. La loi de reproduction est donnée par q0 = β , q1 = (1 − β)(1 − α) , q2 = α(1 − β). En 1994, des estimations donnent q0 = 0, 06 et α = 0, 038. Alors m = q1 + 2q2 = (1 − β)(1 + α) = 0, 976 < 1. Nous sommes dans le cas sous-critique, avec σ 2 = q1 + 4q2 = 0, 095. D’autre part des études statistiques estiment à 150 le nombre de baleines en 1994. Cherchons pendant combien d’années nous pouvons être certains qu’avec 99% de chances, il n’y aura pas extinction. On fait le calcul en appliquant la Proposition 3.1.14. P(Xn > 0 |X0 = 150) ≥ 0, 99 dès que ⇐⇒ mn + 1 ≥ 0, 99 i(1 − m) σ2 n ≤ 150. Ainsi, avec 99% de chances et si il n’y a pas de changement environnemental, les baleines survivront jusqu’en 2144. Cherchons maintenant en quelle année les baleines seront éteintes, avec 99% de chances. P(Xn = 0 |X0 = 150) ≥ 0, 99 dès que ⇐⇒ i mn ≤ 0, 01 n ≥ 395. Ainsi, avec 99% de chances, nous pouvons assurer que si il n’y a pas de changement environnemental, les baleines auront disparu en 2389. Il est intéressant d’un point de vue écologique d’étudier le temps moyen d’extinction d’une population sous-critique en fonction de la taille de la population initiale. 3.1. PROCESSUS DE POPULATION EN TEMPS DISCRET 107 Proposition 3.1.16 Considérons un processus de Galton-Watson (Xn )n sous critique (m < 1) et tel que X0 = i. Supposons de plus que m2 < +∞ et posons c1 = (1−m)m . σ2 Soit T0 le temps d’atteinte de 0 du processus (Xn )n . Alors, pour i suffisamment grand, 1 ln i 2−m ln i − ln ln i 1 − c1 ≤ Ei (T0 ) ≤ + . | ln m| i | ln m| 1 − m Corollaire 3.1.17 Dans les mêmes conditions que ci-dessus, nous avons Ei (T0 ) ∼i→∞ ln i . | ln m| (3.1.19) Remarque 3.1.18 Ce corollaire a des conséquences écologiques importantes : même si au temps 0, la population est extrêmement grande, elle va s’éteindre rapidement si son nombre moyen d’enfants par individu est inférieur à 1. En effet, ln i est négligeable devant i quand i → ∞. et ψ(i) = |lnlnlnm|i . Nous avons X Ei (T0 ) = Pi (T0 > n) Preuve. Introduisons φ(i) = ln i | ln m| n [φ(i)] = X ∞ X Pi (T0 > n) + n=0 Pi (T0 > n) n=[φ(i)]+1 ∞ X n ≤ φ(i) + 1 + i m n=[φ(i)]+1 mφ(i) , 1−m ln i 2−m ≤ + , | ln m| 1 − m ≤ φ(i) + 1 + i car m < 1, car ln i i m[φ(i)] ≤ i e− ln m ln m = 1. Nous obtenons ainsi l’inégalité de droite de la Proposition 3.1.16. Pour l’inégalité de gauche, remarquons tout d’abord que e−c1 i m φ(i)−ψ(i) = e−c1 m −ψ(i) −ψ(i) ln m = e−c1 e 1 = e−c1 ln i = ec1 ln i = 1 . i c1 Nous en déduisons que pour φ(i) − ψ(i) assez grand, Pi (T0 ≤ φ(i) − ψ(i)) = (1 − P1 (T0 > φ(i) − ψ(i)))i ≤ e−iP1 (T0 >φ(i)−ψ(i)) ≤ e−ic1 m φ(i)−ψ(i) = 1 , ic1 108 CHAPITRE 3. DYNAMIQUE DES POPULATIONS car (1 − x)k ≤ e−kx et par la Proposition 3.1.14 2). Ainsi, si n ≤ φ(i) − ψ(i), nous avons Pi (T0 > n) ≥ Pi (T0 > φ(i) − ψ(i)) ≥ 1 − Pi (T0 ≤ φ(i) − ψ(i)) 1 ≥ 1 − c1 , i d’où [φ(i)−ψ(i)] Ei (T0 ) ≥ X n=0 1 Pi (T0 > n) ≥ 1 − c1 ([φ(i) − ψ(i)] + 1) i ln i − ln ln i 1 ≥ 1 − c1 . | ln m| i Revenons à l’exemple des baleines : Le Corollaire 3.1.17 appliqué à m = 0, 976 et i = 150 donne que Ei (T0 ) ' 206. Remarque : Bien-sûr, le modèle de branchement est très approximatif pour décrire le comportement de la population de baleines et ces calculs donnent essentiellement un ordre de grandeur du temps d’extinction. De plus, quand la population devient de petite taille, les processus de reproduction entraînent plus facilement l’accumulation de mutations délétères qui accroissent la mauvaise adaptation des baleines au milieu et pourront entraîner une accélération de leur extinction. On appelle cette accélération "le vortex d’extinction". Des recherches sont développées actuellement pour modéliser cette spirale d’extinction. Relation entre processus de Bienaymé-Galton-Watson et modèle de généalogie. Etudions le comportement d’un processus de BGW conditionné à rester de taille constante N . Nous allons voir que dans ce cas, si la loi de reproduction du BGW est une loi de Poisson, la loi conditionnelle est liée au modèle de Wright-Fisher, que nous étudierons en détail dans le chapitre 4. Théorème 3.1.19 Soit N un entier non nul. Considérons un processus X de GaltonWatson, dont la loi de reproduction est une loi de Poisson de paramètre m et supposons que X0 = N . Alors, conditionnellement au fait que X garde la même valeur N , ( Xn = N , pour tout n), la répartition des descendants (Y1 , · · · , YN ) de chaque individu de la génération précédente suit une loi multinomiale de paramètres (N, N1 , · · · , N1 ). 3.1. PROCESSUS DE POPULATION EN TEMPS DISCRET 109 Preuve. Soit Di le nombre de descendants de l’individu i dans le modèle de BGW conditionné à rester de taille constante N . Soit (k1 , · · · , kN ), un N -uplet d’entiers de somme N . On a alors PN (D1 = k1 , · · · , DN = kN ) = PN (Y1 = k1 , · · · , YN = kN |X1 = N ) QN i=1 P(Yi = ki ) , = PN (X1 = N ) où les variables aléatoires Yi , désignant le nombre de descendants de l’individu i dans le modèle de BGW, sont indépendantes. Appelons comme précédemment g la fonction génératrice de la loi de reproduction, qui est supposée être une loi de Poisson de paramètre m. On a pour tout s ∈ [0, 1] g(s) = exp(−m(1 − s)), et la fonction génératrice de X1 sous PN est g(s)N = exp(−N m(1 − s)). La loi de X1 sous PN est donc une loi de Poisson de paramètre mN . Nous en déduisons que N ki Y N! −m m e P(D1 = k1 , · · · , DN = kN ) = −mN e (N m)N i=1 ki ! N N! 1 = . k1 ! · · · kN ! N Nous reconnaissons ici la loi multinomiale de paramètres (N, N1 , · · · , N1 ). 3.1.3 Chaîne de Bienaymé-Galton-Watson avec immigration Nous avons vu que la chaîne de BGW a un comportement limite “dégénéré” en un certain sens, et qu’il n’y a pas de probabilité invariante hormis la masse de Dirac en 0. La situation devient différente, avec notamment l’existence possible de probabilités invariantes non triviales, lorsque l’on ajoute de l’immigration. Reprenons le modèle introduit au Chapitre 3.1.1, en supposant que pour tout i ∈ N, Qi = Q ; η i = η. Ainsi, la chaîne de vie et de mort est densité-indépendante avec immigration et est décrite par Xn+1 = i X Yn,k + Zn si Xn = i, pour i ∈ N. k=1 Les variables aléatoires (Zn )n ont la même loi η qu’une variable aléatoire Z. (3.1.20) 110 CHAPITRE 3. DYNAMIQUE DES POPULATIONS La différence essentielle avec la chaîne de BGW simple (sans immigration) est que 0 n’est plus un état absorbant, puisque P0,j = ηj est strictement positif pour au moins un j ≥ 1. Certains cas sont inintéressants : • Si η0 = 1, on se ramène au cas précédent. • Si q0 = 1, Xn+1 = Zn et la chaîne se réduit à une suite de variables aléatoires indépendantes et de même loi. • Si q0 = 0, on a Xn+1 ≥ Xn + Zn et la population ne peut avoir un temps d’extinction fini. Dans la suite, nous supposons donc que 0 < q0 < 1 , q1 < 1 , η0 < 1. (3.1.21) Comme dans le paragraphe précédent, nous notons par m l’espérance de la loi de reproduction. Nous supposons que chaque immigrant se comporte dès son apparition comme les individus déjà présents dans la population et engendre donc un arbre de BGW composé de ses descendants, avec la loi de reproduction commune aux individus. Les théorèmes suivants décrivent alors le comportement du processus de BGW avec immigration. Ces théorèmes généralisent les résultats du cas sans immigration, et sont plus subtils à montrer. Nous ne donnerons que des démonstrations partielles. Théorème 3.1.20 Supposons m < 1. Notons ln+ Z = sup(ln Z, 0). On a alors la dichotomie suivante. E(ln+ Z) < +∞ ⇒ (Xn ) converge en loi. E(ln+ Z) = +∞ ⇒ (Xn ) converge en probabilité vers + ∞. Remarquons que ce théorème entraîne en particulier la convergence en loi de (Xn )n pour m < 1 et E(Z) < ∞. Théorème 3.1.21 Supposons m > 1. On a alors la dichotomie suivante. E(ln+ Z) < +∞ ⇒ lim m−n Xn existe et est finie p.s.. n + E(ln Z) = +∞ ⇒ lim sup c−n Xn = +∞ pour toute constante c > 1. n Pour prouver ces théorèmes, nous allons utiliser le lemme suivant : Lemme 3.1.22 Soient ζ1 , ζ2 , · · · des variables aléatoires positives indépendantes et de même loi distribuée comme ζ. Alors pour tout c > 1, X E(ln+ ζ) < +∞ ⇒ c−n ζn < +∞ p.s. n≥1 + E(ln ζ) = +∞ ⇒ lim sup c−n ζn = +∞ p.s. n 3.1. PROCESSUS DE POPULATION EN TEMPS DISCRET 111 Preuve du lemme Par le théorème de Borel-Cantelli, nous pouvons vérifier que pour toute suite de variables aléatoires W1 , W2 , · · · positives indépendantes et équidistribuées (de même loi que W ), lim supn Wnn vaut presque-sûrement 0 ou l’infini suivant que E(W ) est fini ou non. En effet, soit ε > 0. Nous avons alors XX X Wn Xi XX 1 P P(Wn = i) = >ε = P(Wn = i) = P(W = i) = E(W ). n ε ε i n n i>nε i i n< ε Si E(W ) < ∞, le Théorème de Borel-Cantelli (voir [?]) entraîne que P(lim supn { Wnn > ε}) = 0 et ainsi, la suite ( Wnn )n converge presque-sûrement vers 0. Si au contraire E(W ) = +∞, et puisque les Wi sont indépendantes, alors la probabilité ci-dessus vaut 1, et donc Wn tend vers l’infini presque-sûrement. n Revenons maintenant à la preuve du Lemme 3.1.22. Considérons une suite (ζn )n de variables aléatoires indépendantes et de même loi. Remarquons que si les résultats asymptotiques énoncés dans le Lemme 3.1.22 sont vrais pour la sous-suite des ζn > 1, ils seront encore vrais pour tous les ζn . Limitons-nous à cette sous-suite et posons Wn = ln(ζn ). Soit aussi c > 1 et a = ln c > 0. Alors pour tout n tel que ζn > 1, on a c−n ζn = exp −n(a− Wnn ). L’application de la première partie de la preuve à la suite (Wn )n entraîne le résultat escompté. Preuve. (du Théorème 3.1.20). Remarquons que le processus de BGW avec immigration X issu de 0 et évalué à la génération n est tel que Xn a même loi que n X ξn,k , k=0 où les variables aléatoires à valeurs entières ξn,k sont indépendantes et pour chaque k, ξn,k décrit la contribution à la génération n des immigrants arrivés à la génération n − k. Ainsi ξn,k est la valeur à la génération k d’un processus de BGW sans immigration lié à la loi de reproduction Y et ne dépend donc pas de n. Nous noterons ζk le nombre d’immigrants à la génération n−k. Remarquons que ξn,0 = ζn , ξn,1 est égal au nombre d’enfants des ζn−1 migrants de la génération n−1, etc. De plus, les variables aléatoires ζk sont indépendantes et de même loi que Z, donc E(ln+ Z) = E(ln+ ζ). P Nous cherchons à déterminer si X∞ = ∞ k=0 ξn,k est une variable aléatoire finie ou infinie. Il est possible de montrer (grâce à un résultat appelé la loi du tout ou rien), que X∞ est finie presque-sûrement ou infinie presque-sûrement. Soit G la tribu engendrée par toutes les variables ζk , k ∈ N. Supposons tout d’abord que E(ln+ Z) < ∞. Nous avons alors E(X∞ |G) = ∞ X ζk mk . k=0 En effet ξn,0 a pour loi ζ, l’espérance conditionnelle de ξn,1 sachant G est égale à l’espérance du nombre d’individu de la première génération issue de ζ1 individus, c’est-à-dire ζ1 m, 112 CHAPITRE 3. DYNAMIQUE DES POPULATIONS etc. Nous pouvons alors appliquer le Lemme 3.1.22 (avec c = m1 puisque m < 1), et en déduire que l’espérance conditionnelle est finie presque-sûrement, ce qui entraine que X∞ est finie presque-sûrement. Par un argument un peu plus compliqué que nous ne développerons pas ici, il est possible de montrer la réciproque, à savoir que si X∞ est finie presque-sûrement, E(ln+ Z) < +∞. Remarquons que si E(X∞ ) < +∞ presque-sûrement, cette réciproque est immédiate grâce au Lemme 3.1.22. Preuve.(du Théorème 3.1.21). Considérons tout d’abord le cas où E(ln+ Z) = +∞. Grâce au Lemme 3.1.22, nous savons que lim supn c−n Zn = +∞, pour tout c > 1. Comme Xn ≥ Zn , le résultat s’en suit. Supposons maintenant que E(ln+ Z) < ∞. Soit F n la tribu engendrée par X0 , X1 , · · · , Xn ainsi que par toutes les variables aléatoires Zk , k ∈ N. Nous avons alors ! Xn X 1 Xn+1 Yi + Zn+1 |F n |F n E = E mn+1 mn+1 i=1 Xn Zn+1 Xn + n+1 ≥ n , n m m m Xn car Zn+1 ≥ 0. Nous en déduisons que m n n est une sous-martingale et que, par une récurrence immédiate, = E Xn |F 0 mn n X Zk , = X0 + k m k=0 pour tout n ≥ 1. Nous avons donc sup E n Xn mn ∞ X Zk m . ≤ E(X0 ) + E ≤ E(X ) + E(Z) 0 k m m − 1 k=0 Xn Le Lemme 3.1.22 entraîne alors que ( m n )n est une sous-martingale d’espérance uniformément bornée. En effet on applique le lemme avec ζ = Z et c = m car m > 1. La suite Xn (m n )n converge donc presque-sûrement vers une variable aléatoire finie presque-sûrement. (Pour ce résultat de convergence, voir [34] ou [5]). 3.1.4 Le processus de BGW multi-type Comme nous l’avions suggéré dans les exemples de la Section 3.1.1, il est intéressant du point de vue pratique de considérer la dynamique d’une population composée de sous-populations d’individus de types différents. Le type d’un individu est défini comme un attribut (ou un ensemble d’attributs) qui reste fixé durant la vie de l’individu. Des exemples classiques de tels types sont la taille à la naissance, le sexe, le génotype de 3.1. PROCESSUS DE POPULATION EN TEMPS DISCRET 113 l’individu, son stade de maturité (juvénile, reproducteur) ... Le type peut affecter la distribution du nombre de descendants. Par exemple des individus juvéniles peuvent devenir des individus reproducteurs (aptes à la reproduction) ou rester juvéniles (inaptes à la reproduction), mais les individus reproducteurs produiront toujours des individus juvéniles. Les distributions des descendances seront donc différentes. (Elles n’ont pas le même support). Un autre exemple est celui des génotypes : le génotype d’un parent affecte de manière évidente le génotype de ses descendants et peut aussi affecter leur effectif. Dans un modèle avec reproduction clonale (asexuée) et mutation, un individu aura, avec une probabilité proche de 1, le même génotype que son parent mais avec une petite probabilité, il pourra être de génotype mutant. Si c’est le cas, l’individu de type mutant produira à son tour des individus portant ce nouveau type, avec une loi de reproduction qui pourra être différente de la loi de reproduction initiale. Ces différences entre les lois de reproduction des différents génotypes peuvent servir à modéliser la sélection sur la fertilité ou sur les chances de survie et l’évolution. Nous supposons que les individus ne prennent qu’un nombre fini K de types distincts. Le modèle de BGW multi-type consiste à décrire une population dans laquelle pour chaque type j ∈ {1, · · · , K}, un individu de type j génère à la génération suivante, et indépendamment de tous les autres, un K-uplet décrivant la répartition en les K types de ses descendants. Exemple : La population est composée de deux types ♥ et ♠. Nous avons 5 individus pour une certaine génération et à la génération suivante nous obtenons : première génération : ♥ ♥ ♠ ♠ ♠ deuxième génération : (♥, ♥) (♥, ♠) (♥, ♠, ♠) (♥, ♠, ♠) (♠). Nous supposerons de plus que pour chaque type j fixé, les k-uplets aléatoires issus de chaque individu de type j sont indépendants et de même loi, et que les descendances de tous les individus sont indépendantes entre elles. Plus précisément, nous allons introduire le processus à valeurs vectorielles (colonnes) Xn = (Xn(1) , · · · , Xn(K) )T , (V T désigne le vecteur ligne transposée du vecteur colonne V ), décrivant le nombre d’individus de chaque type à la génération n, qui est à valeurs dans NK . Supposons que la (1) (K) distribution initiale soit définie par le vecteur (X0 , · · · , X0 )T . La première génération (1) (K) sera alors définie par le vecteur (X1 , · · · , X1 )T , où pour k ∈ {1, · · · , K}, (j) (k) X1 = X0 K X X (k) Yj (i). j=1 i=1 (k) La variable aléatoire Yj (i) représente le nombre d’enfants de type k issus du i-ième individu de type j. On a indépendance des descendances aléatoires correspondant à 114 CHAPITRE 3. DYNAMIQUE DES POPULATIONS (j) des types j différents. Pour j fixé, et conditionnellement à X0 , les vecteurs aléatoires (1) (k) (K) Yj , · · · , Yj , · · · Yj sont indépendants. De plus, pour chaque j, k, chaque vecteur (k) (j) (Yj (i), 1 ≤ i ≤ X0 ) est composé de variables aléatoires indépendantes et de même loi. La population à la génération 1 est par exemple donnée par (j) (1) (X1 , · · · (K) , X1 )T X0 K X X (1) (K) = (Yj (i), · · · , Yj (i))T . j=1 i=1 Dans l’exemple "coeur et pique", nous avons donc X0 = 2 3 et X1 = 5 6 . Remarque : Soulignons que les descendants de chaque individu d’un certain type sont indépendants et de même loi, et que les descendances d’individus distincts à la n-ième génération sont indépendantes les unes des autres. Définition 3.1.23 Ces processus de branchement sont appelés processus de GaltonWatson multi-types et font partie de la classe des processus de branchement multi-types. Pour ces processus de Galton-Watson multi-types, les fonctions génératrices vont jouer le même rôle fondamental que dans le cas monotype. Pour tout n ∈ N, tout type j ∈ {1, · · · , K} et s = (s1 , · · · , sK ) ∈ [0, 1]K , nous allons définir la j-ième fonction génératrice fnj (s) qui déterminera la distribution du nombre de descendants de chaque type à la génération n produits par une particule de type j. X (1) (K) (j) (m) Xn fnj (s) = E(s1Xn · · · sK | X0 = 1, X0 = 0, ∀m 6= j) = pjn (i1 , · · · , iK )si11 · · · siKK , i1 ,··· ,iK ≥0 où pjn (i1 , · · · , iK ) est la probabilité qu’un parent de type j produise i1 descendants de type 1, ..., iK descendants de type K, à la génération n. Exemple : considérons une population de lynx. Ces animaux sont tout d’abord juvéniles. En grandissant les lynx deviennent pour la plupart aptes à la reproduction mais sont incapables de se reproduire s’ils ne se retrouvent pas dans une meute. Ils sont alors dits flottants. Dès lors qu’ils sont en meute, ils peuvent se reproduire. Toutefois, il arrive qu’un individu ne puisse s’intégrer à la meute et reste flottant. La population de lynx est donc composée de 3 types : juvénile (J), flottant (F), reproducteur (R). Un individu passe • de l’état J à l’état F avec probabilité σ • de l’état J à l’état J avec probabilité 1 − σ • de l’état F à l’état R avec probabilité σ 0 • de l’état F à l’état F avec probabilité 1 − σ 0 • de l’état R à l’état F avec probabilité 1 − ρ (le lynx sort de la meute) et se reproduit avec probabilité ρ. Son nombre de petits suit alors une loi de Poisson de paramètre m. 3.1. PROCESSUS DE POPULATION EN TEMPS DISCRET 115 A la première génération , nous aurons donc f11 (s1 , s2 , s3 ) = σs2 + (1 − σ)s1 f12 (s1 , s2 , s3 ) = σ 0 s3 + (1 − σ 0 )s2 f13 (s1 , s2 , s3 ) = em(s1 −1) ρs3 + (1 − ρ)s2 . Par un raisonnement analogue à celui du cas monotype, nous pouvons montrer la formule de récurrence suivante. Proposition 3.1.24 Pour tout j ∈ {1, · · · , K}, pour tout n ∈ N∗ et s = (s1 , · · · , sK ) ∈ [0, 1]K , j fnj (s) = fn−1 (f11 (s), f12 (s), · · · , f1K (s)) 1 2 K = f1j (fn−1 (s), fn−1 (s), · · · , fn−1 (s)). Il y aura extinction de la population à un certain temps n s’il y a extinction de chaque (j) type et donc si pour tout j ∈ {1, · · · , K}, Xn = 0. En raisonnant toujours comme dans le cas monotype, il est possible de calculer ces probabilités d’extinction en fonction des solutions du système donné dans le théorème suivant. (Nous référons à Athreya-Ney [3] pour la preuve). Théorème 3.1.25 P(Xn(j) = 0, ∀j (j) | X0 K Y = kj , ∀j) = (Un(j) )kj , j=1 (j) où Un , j ∈ {1, · · · , K} est l’unique solution du système : pour tout j ∈ {1, · · · , K}, ( (j) U0 = 0 (1) (K) (j) j Un = f1 (Un−1 , · · · , Un−1 ). Il est alors possible d’en déduire des résultats décrivant le comportement en temps long du processus, suivant le même raisonnement que dans le cas monotype, voir Athreya-Ney [3] pour plus de détails. Nous allons uniquement nous intéresser ici au comportement asymptotique de la matrice des espérances du processus et en déduire une généralisation des cas sous-critique, critique, surcritique développés dans le chapitre 3.1.2. La reproduction moyenne est décrite par une matrice M = (mkj )k,j∈{1,··· ,K} , (3.1.22) 116 CHAPITRE 3. DYNAMIQUE DES POPULATIONS où (k) mkj = E(Yj ) est le nombre moyen d’individus de type k issus d’un individu de type j. La somme des coefficients de la k-ième ligne représente donc le nombre moyen d’individus de type k à chaque reproduction et la somme des coefficients de la j-ième colonne représente le nombre moyen d’individus issus d’un individu de type j. Proposition 3.1.26 L’espérance du nombre d’individus de type k à la génération n vérifie E(Xn(k) ) = E(E(Xn(k) |Xn−1 )) = K X (j) mkj E(Xn−1 ) = M E(Xn−1 ) . (3.1.23) k j=1 Ainsi, nous avons l’égalité vectorielle E(Xn ) = M E(Xn−1 ) = M n E(X0 ). (3.1.24) Preuve. Il suffit d’écrire E(Xn(k) | Xn−1 ) = E (j) K X n−1 X X K X (j) (k) (k) E(Yj ) Xn−1 . Yj (i) | Xn−1 = j=1 i=1 j=1 Il y aura sous-criticalité et extinction si la matrice M n → 0 et sur-criticalité si M n → +∞ (dans un sens à définir). Une question qui se pose est alors de savoir si l’on peut caractériser la criticalité par un seul paramètre scalaire. De manière évidente, la matrice M est positive, au sens où tous ses termes sont positifs. Dans la suite, nous ferons l’hypothèse supplémentaire suivante (voir Athreya-Ney [3], Haccou-Jagers-Vatutin [17]) : Il existe un entier n0 tel que tous les éléments de la matrice M n0 sont strictement positifs. (3.1.25) De telles matrices ont des propriétés intéressantes (cf. Serre [40]). D’un point de vue biologique, cela veut dire que toute configuration initiale peut amener en temps fini à toute autre composition de la population en les différents types. Définition 3.1.27 On dira que les vecteurs u ∈ RK et v ∈ RK sont des vecteurs propres à gauche et à droite de M associés à la valeur propre λ ∈ C si uT M = λuT , M v = λv, 3.1. PROCESSUS DE POPULATION EN TEMPS DISCRET 117 ou encore λuk = K X uj mjk , j=1 K X mjk vk = λvj . k=1 Enonçons le théorème principal. Théorème 3.1.28 (Serre [40], [17]). Théorème de Perron-Frobenius. Soit M une matrice carrée K × K à coefficients positifs et satisfaisant (3.1.25). Alors 1) il existe un unique nombre réel λ0 > 0 tel que • λ0 est une valeur propre de M , • toute valeur propre λ de M (réelle ou complexe) est telle que |λ| ≤ λ0 . La valeur propre λ0 est appelée valeur propre dominante de M . 2) le vecteur propre à gauche u = (u1 , · · · , uK ) et le vecteur propre à droite v = (v1 , · · · , vK ) correspondant à la valeur propre λ0 peuvent être choisis tels que K X k=1 vk = 1 ; K X uk vk = 1. k=1 Dans ces conditions, les vecteurs propres sont uniques. De plus, M n = λn0 A + B n , où A = (vk uj )k,j∈{1,··· ,K} et B sont des matrices telles que : • AB = BA = 0, • Il existe des constantes ρ ∈]0, λ0 [ et C > 0 telles qu’aucun des éléments de la matrice B n n’excède Cρn . Remarquons qu’il est facile de vérifier que A = (vk uj )k,j∈{1,··· ,K} satisfait : Av = v, AT u = u et que An = A pour tout n. (AT désigne la matrice transposée de A). La matrice A est en fait la matrice de projection sur l’espace propre (de dimension 1) lié à la valeur propre λ0 , parallèlement à l’hyperplan H = {z; uT z = 0}. En appliquant ce théorème et si λ0 désigne la valeur propre dominante de la matrice de reproduction moyenne, nous obtenons alors immédiatement la proposition suivante. Proposition 3.1.29 Le processus de branchement multi-type de matrice de reproduction M (satisfaisant (3.1.25)) est • sous-critique si λ0 < 1, • critique si λ0 = 1, • surcritique si λ0 > 1. 118 CHAPITRE 3. DYNAMIQUE DES POPULATIONS En particulier, si λ0 < 1, le processus de branchement multi-type s’éteint presquesûrement. Plus précisément, E(Xn ) ∼n→∞ (λ0 )n A E(X0 ). Si la population initiale se réduit à un individu de type j, on a Ej (Xn(k) ) ∼n→∞ (λ0 )n vk uj . En temps long, le nombre moyen d’individus de type j divisé par la taille moyenne de la population sera donné par (j) E(Xn ) vk = = vk , n→∞ E(|Xn |) v1 + · · · + vK lim où |Xn | désigne P le nombre total d’éléments de la population à la génération n. (On a supposé que K i=1 vi = 1). Ainsi , vk représente la proportion d’individus de type k et uj représente la fertilité d’un individu de type j. D’un point de vue biologique, nous en déduisons que dans une population satisfaisant l’hypothèse (3.1.25), tous les types croissent (en moyenne) au même taux λ0 . Les probabilités d’extinction peuvent en revanche différer, suivant le type de l’individu initial : plus fertile est le type de l’ancêtre, plus grande est sa chance de survie. Exemple : Presque toutes les populations comportent des individus d’au moins deux stades de maturité : les individus juvéniles, inaptes à la reproduction et les individus reproducteurs. Les reproducteurs produisent des juvéniles et les juvéniles deviennent reproducteurs, ou restent à un état essentiellement juvénile. Reprenons l’exemple de la population de lynx et assimilons les lynx flottants aux juvéniles. Nous avons alors une population formée de deux types 1 (juvéniles) et 2 (reproducteurs). Supposons que la moyenne de la loi de reproduction des reproducteurs soit m. La matrice de reproduction moyenne est de la forme s1 m M= , s2 0 avec s1 > 0, s2 > 0. Il est facile de vérifier que M 2 est à coefficients strictement positifs et la matrice M vérifie les hypothèses du théorème de Perron-Frobenius. Cherchons ici la valeur propre dominante. Soit λ ∈ C. det(M − λI) = −λ(s1 − λ) − s2 m. Une analyse immédiate montre que λ0 > 1 ⇔ 1 − s1 − ms2 < 0, λ0 < 1 ⇔ 1 − s1 − ms2 > 0, λ0 = 1 ⇔ 1 − s1 − ms2 = 0. Ainsi, la population de lynx va s’éteindre si 1 − s1 − ms2 ≥ 0, et se développer dans le cas contraire. 3.1. PROCESSUS DE POPULATION EN TEMPS DISCRET 3.1.5 119 Les probabilités quasi-stationnaires Revenons ici au cas d’un processus de branchement monotype. Nous avons vu que dans les cas sous-critique ou critique, le processus de BGW (Xn )n s’éteint presque-sûrement. Mais le temps nécessaire à l’extinction peut être très long (par exemple dans le cas critique) et dans une échelle de temps qui n’est pas l’échelle de temps humaine. On peut alors dans certains cas observer une apparente stationnarité de la population, alors que celle-ci est en voie d’extinction. Ainsi, une étude faite sur des serpents à sonnettes en Arizona (cf. Renault, Ferrière, Porter, non publié), montre que la moyenne du nombre de descendants vaut m = 0, 91. Le processus est donc très nettement sous-critique. L’étude expérimentale montre toutefois qu’après une phase de décroissance violente de la population, celle-ci semble s’être stabilisée. Notre but dans ce paragraphe est de donner un sens mathématique à cette stabilité avant extinction. Par analogie avec la recherche d’une probabilité invariante (ou stationnaire), la question peut être posée sous l’une des formes suivantes : 1 - Existe-t-il une probabilité sur N∗ qui laisse invariante la loi conditionnelle de Xn sachant que la population n’est pas éteinte au temps n ? Une telle probabilité, si elle existe, sera appelée probabilité (ou distribution) quasi-stationnaire. 2 - La limite de la loi conditionnelle de Xn sachant que la population n’est pas éteinte au temps n, lim Loi(Xn |Xn > 0), n→∞ existe-telle ? Nous montrerons l’existence de cette limite par l’étude des fonctions génératrices, très adaptées aux processus de branchement. Cette limite ne dépend pas de la condition initiale et s’appelle limite de Yaglom. Nous montrerons que c’est une probabilité quasi-stationnaire. Une autre approche plus générale du problème, sera développée ensuite, qui consiste à utiliser des arguments de théorie spectrale pour la matrice de transition de la chaîne de BGW. Distribution quasi-stationnaire Soit (Xn )n une chaîne de Markov sur N absorbée en 0. Nous supposons de plus que ce processus atteint 0 presque-sûrement. Notons comme précédemment par T0 le temps d’atteinte de 0. Ainsi, P(T0 < +∞) = 1. Pour toute probabilité ν = (νj )j≥1 sur N∗ , nous noterons X Pν = νj P j . j≥1 Définition 3.1.30 On dira qu’une probabilité ν sur N∗ est une probabilité quasi-stationnaire pour le processus X si elle vérifie que pour tout j ≥ 1 et pour tout n, Pν (Xn = j | T0 > n) = νj . 120 CHAPITRE 3. DYNAMIQUE DES POPULATIONS Remarque 3.1.31 Remarquons que l’événement conditionnant {Xn 6= 0} = {T0 > n} a une probabilité qui tend vers 0 quand n tend vers l’infini. On conditionne donc par un événement de plus en plus rare, quand n augmente. Dans le cas des chaînes de BGW sous-critiques, nous allons étudier la limite, quand n tend vers l’infini, des quantités Pi (Xn = j | T0 > n) = Pi (Xn = j | Xn 6= 0) pour tout j ∈ N∗ . Nous allons montrer que sous des hypothèses adéquates, Pi (Xn = j|T0 > n) converge, quand n tend vers l’infini P et pour tout i, j ≥ 1, vers une limite µj positive qui ne dépend pas de i et telle que j≥1 µj = 1. Nous vérifierons que la probabilité µ ainsi définie est une mesure quasi-stationnaire, au sens de la définition 3.1.30. Nous avons donc une sorte de “théorème ergodique conditionnel”. Nous verrons que ce phénomène n’est pas propre aux chaînes de BGW sous-critiques, mais concerne aussi une large classe de chaînes de Markov ayant un état absorbant. Théorème 3.1.32 Soit (Xn )n une chaîne de BGW sous-critique (m < 1). Supposons de plus que m2 < +∞. Il existe une probabilité µ = (µj )j≥1 sur N∗ , telle que ∀i, j ≥ 1, lim Pi (Xn = j | Xn > 0) = µj . n→∞ (3.1.26) µ s’appelle la limite de Yaglom de la chaîne de BGW. En particulier, elle ne dépend pas de la condition initiale, et c’est une loi quasi-stationnaire. De plus, la fonction génératrice ĝ de µ est l’unique solution de l’équation : pour tout s ∈ [0, 1], 1 − ĝ(g(s)) = m(1 − ĝ(s)). (3.1.27) Preuve. Notons comme précédemment par gn la fonction génératrice de (Xn )n . Pour chaque n ∈ N∗ , nous introduisons la fonction génératrice conditionnelle définie pour s ∈ [0, 1] par E1 (sXn 1Xn >0 ) ĝn (s) = E1 (s | Xn > 0) = P1 (Xn > 0) Xn E1 (s ) − P1 (Xn = 0) = 1 − P1 (Xn = 0) gn (s) − gn (0) 1 − gn (s) = =1− ∈ [0, 1]. 1 − gn (0) 1 − gn (0) Xn (3.1.28) Remarquons que ĝn (0) = 0, ce qui est normal puisque par définition la loi conditionnelle ne charge pas le point 0. Montrons que pour s fixé, la suite n → 1−gn (s) 1−gn (0) est croissante. Nous écrivons 1 − gn+1 (s) 1 − gn+1 (s) 1 − gn (s) 1 − gn (0) = . 1 − gn+1 (0) 1 − gn (s) 1 − gn (0) 1 − gn+1 (0) 3.1. PROCESSUS DE POPULATION EN TEMPS DISCRET 121 Or, les fonctions génératrices sont convexes et donc leur taux d’accroissement est croissant. Ainsi, la fonction u → 1−g(u) est croissante, et nous en déduisons que 1−u 1 − gn+1 (0) 1 − gn+1 (s) 1 − gn (s) 1 − gn+1 (s) ≥ et ≥ . 1 − gn (s) 1 − gn (0) 1 − gn+1 (0) 1 − gn (0) 1−gn (s) Ainsi, la suite 1−g est croissante et majorée par 1, car gn (s) ≥ gn (0). La suite n (0) n (ĝn (s))n est donc décroissante et minorée par 0 et converge vers ĝ(s) ∈ [0, 1]. La fonction ĝ est alors la fonction génératrice d’une mesure finie de masse inférieure ou égale à 1. Si nous montrons que ĝ est continue en 1, nous pourrons alors conclure par un théorème de Paul Lévy que ĝ est la fonction génératrice d’une probabilité µ qui ne charge pas 0 (Voir Métivier [31] p.183). Pour cela, nous montrons tout d’abord que ĝ est solution d’une équation fonctionnelle. Nous avons 1 − gn+1 (s) 1 − gn+1 (s) 1 − gn (0) 1 − ĝ(s) = lim = lim . n 1 − gn+1 (0) n 1 − gn (0) 1 − gn+1 (0) Mais lim n→∞ 1−u 1 1 − gn (0) = lim = , u→1 1 − gn+1 (0) 1 − g(u) m car m = g 0 (1). De plus, 1 − gn (g(s)) = 1 − ĝ(g(s)), n 1 − gn (0) par définition de ĝ. Nous obtenons alors que ĝ est solution de l’équation fonctionnelle suivante : pour tout s ∈ [0, 1], lim 1 − ĝ(g(s)) = m(1 − ĝ(s)). (3.1.29) Quand s tend vers 1, le passage à la limite dans l’équation (3.1.29) entraîne la continuité de ĝ en 1. A priori, la fonction ĝ dépend du point de départ de la chaîne. Montrons qu’il n’en est rien. Supposons qu’il y a initialement i individus. Alors, de même que précédemment, nous avons Ei (sXn ) − Pi (Xn = 0) ĝn,i (s) = Ei (s | Xn > 0) = 1 − Pi (Xn = 0) Xn i (E1 (s )) − (P1 (Xn = 0))i = . 1 − (P1 (Xn = 0))i Xn Comme le processus (Xn )n est sous-critique, les quantités E1 (sXn ) et P1 (Xn = 0) tendent vers 1 quand n tend vers l’infini. Nous en déduisons que Ei (sXn ) = 1 + i (E1 (sXn ) − 1) + o(E1 (sXn ) − 1), Pi (Xn = 0) = 1 − i P1 (Xn > 0) + o(P1 (Xn > 0)). 122 CHAPITRE 3. DYNAMIQUE DES POPULATIONS Par suite, Ei (sXn | Xn > 0) ∼n→∞ E1 (sXn ) − 1 + P1 (Xn > 0) E1 (sXn ) − P1 (Xn = 0) = , 1 − 1 + P1 (Xn > 0) 1 − P1 (Xn = 0) d’où ĝn,i (s) converge vers ĝ(s) quand n tend vers l’infini. Ainsi, µ est la limite de Yaglom de la chaîne et satisfait (3.1.26). Montrons maintenant que la probabilité µ est une loi quasi-stationnaire. Calculons Eµ (sXn | Xn > 0) = Eµ (sXn ) − Pµ (Xn = 0) , 1 − Pµ (Xn = 0) avec Pµ (Xn = 0) = X Eµ (sXn ) = X X Pj (Xn = 0) µj = j≥1 (P1 (Xn = 0))j µj = ĝ(P1 (Xn = 0)) = ĝ(gn (0)), j≥1 Ej (sXn ) µj = j≥1 X (E1 (sXn ))j µj = ĝ(E1 (sXn )) = ĝ(gn (s)). j≥1 Grâce à (3.1.29), nous obtenons 1 − ĝ(gn (s)) = m(1 − ĝ(gn−1 (s))) = · · · = mn (1 − ĝ(s)) et ĝ(gn (s)) = 1 − mn + mn ĝ(s), ĝ(gn (0)) = 1 − mn . Finalement, nous avons Eµ (sXn | Xn > 0) = mn ĝ(s) = ĝ(s). mn La loi conditionnelle de Xn sachant Xn > 0 issue de µ a donc même fonction génératrice que µ. Les deux probabilités sont égales et nous avons ainsi prouvé que µ est une distribution quasi-stationnaire pour la chaîne de BGW. Théorie spectrale et quasi-stationarité Nous nous plaçons maintenant dans un cadre un peu plus général. Considérons une chaîne de Markov (Xn )n de matrice de transition P = (Pi,j ), avec un unique état absorbant. On suppose que l’espace d’état est N et que l’état absorbant est 0, donc notre hypothèse revient à dire que P0,0 = 1, et Pi,i < 1 pour i ≥ 1. (3.1.30) Le temps d’absorption est comme précédemment T0 = inf{n, Xn = 0} et nous avons Xn = 0 si et seulement si n ≥ T0 . On note toujours Pi la probabilité pour laquelle X0 = i. 3.1. PROCESSUS DE POPULATION EN TEMPS DISCRET 123 Supposons aussi qu’il existe une fonction propre réelle ϕ définie sur N associée à une valeur propre λ > 0 telles que P ϕ = λϕ, ϕ(0) = 0, inf ϕ(i) > 0. (3.1.31) i≥1 Remarquons que la première assertion s’écrit : pour tout i ∈ N, X Pi,j ϕ(j) = λϕ(i). j∈N Remarque : Cette hypothèse est vérifiée pour la chaîne de BGW en prenant pour fonction ϕ la fonction identité ϕ(i) = i pour tout i, et λ = m. Lemme 3.1.33 La formule Qi,j = Pi,j ϕ(j) λϕ(i) pour i, j ≥ 1 définit une probabilité de transi(n) tion Q = (Qi,j ) sur N? , dont la nième puissance Qn = (Qij ) est donnée par (n) (n) Qi,j Pi,j ϕ(j) = n . λ ϕ(i) (3.1.32) Preuve. On a Qi,j ≥ 0, et puisque ϕ(0) = 0, X Qi,j = j≥1 X X λϕ(i) 1 1 1 (P ϕ)(i) = = 1, Pi,j ϕ(j) = pij ϕ(j) = λϕ(i) j≥1 λϕ(i) j≥0 λϕ(i) λϕ(i) où l’on a utilisé P ϕ = λϕ. Cela prouve la première assertion. La relation (3.1.32) est vraie pour n = 1. Si on la suppose vraie pour n − 1, et en utilisant (n−1) = 0 si j ≥ 1, cela donne le fait que p0j (n) Qi,j = X k≥1 (n−1) Qi,k Qk,j (n−1) X Pi,k ϕ(k) Pk,j ϕ(j) = λϕ(i) λn−1 ϕ(k) k≥1 (3.1.33) (n) Pi,j ϕ(j) ϕ(j) X ϕ(j) X (n−1) (n−1) = Pi,k Pk,j = n Pi,k Pk,j = . (3.1.34) λn ϕ(i) k≥1 λ ϕ(i) k≥0 λn ϕ(i) Nous avons donc montré (3.1.32) par récurrence. (n) (n) Nous déduisons en particulier de (3.1.31) et (3.1.32) que Pi,j > 0 ⇔ Qi,j > 0 si i, j ≥ 1. Par suite, si C0 = {0} et C1 , C2 , . . . désignent les classes de la chaîne (Xn ), il est immédiat que : La période de l’état i ≥ 1 est la même pour les chaînes de transitions P et Q,(3.1.35) 124 CHAPITRE 3. DYNAMIQUE DES POPULATIONS Les classes de la chaîne de transition Q sont C1 , C2 , . . ., (3.1.36) Nous allons supposer ici que la chaîne de matrice de transition Q a une unique classe positive C apériodique. Nous allons voir dans la suite que c’est le cas du processus de BGW. Dans ce cas, cette chaîne admet une unique probabilité invariante π telle que πi > 0 (n) si i ∈ C, et pour tous i et j, Qi,j → πj . (Voir [16]). Théorème 3.1.34 a) Supposons (3.1.30) et (3.1.31) avec un λ < 1. Alors Pi (T0 < ∞) = 1 pour tout i, et les états i ≥ 1 sont transients pour la chaîne (Xn ). b) Supposons en outre que la chaîne de transition Q admette une unique classe positive C, apériodique. Si π = (πi )i≥1 désigne l’unique probabilité invariante pour Q (donc πi > 0 si et seulement si i ∈ C), on a pour tous i, j ≥ 1 lim Pi (Xn = j | Xn 6= 0) = µj = P n→∞ πj /ϕ(j) , k≥1 πk /ϕ(k) (3.1.37) et µ = (µj )j≥1 est une probabilité, portée par C. c) La probabilité µ est une probabilité quasi-stationnaire. La probabilité µ est la limite de Yaglom de la chaîne (Xn ). Elle ne dépend pas de la condition initiale i choisie. Preuve. (a) Si a = inf i≥1 ϕ(i), on a aPi (T0 ≥ n) = a X (n) Pi,j ≤ P n ϕ(i) = λn ϕ(i), j≥1 qui tend vers 0 quand n → ∞ puisque λ < 1. Comme a > 0, la première assertion s’en déduit. De plus, si i ≥ 1, Pi (T0 < ∞) = 1 entraîne que la chaîne ne passe Pi –presquesûrement qu’un nombre fini de fois en i ≥ 1, puisque 0 est absorbant, et donc i est transient. (n) (b) Sous l’hypothèse supplémentaire, on a Qi,j converge vers πj quand n tend vers l’infini. P P (n) De plus, pour toute fonction h bornée, j≥1 Qi,j h(j) converge vers j≥1 πj h(j). Mais pour i, j ≥ 1, (3.1.32) implique (n) (n) Pi (Xn = j|Xn 6= 0) = P Pi,j (n) k≥1 Pi,k = P Qi,j /ϕ(j) (n) , (3.1.38) k≥1 Qi,k /ϕ(k) la fonction 1/ϕ étant bornée sur N? . La convergence (3.1.37) est alors immédiate. P La propriété j≥1 µj = 1 est évidente. 3.1. PROCESSUS DE POPULATION EN TEMPS DISCRET 125 (c) Vérifions que µ est une probabilité quasi-stationnaire. Soit j ≥ 1 et n ∈ N∗ . Alors Pµ (Xn = j, Xn 6= 0) P (X 6= 0) P µ n P k≥1 µk Pk (Xn = j, Xn 6= 0) k≥1 µk Pk (Xn = j) P = =P k≥1 µk Pk (Xn 6= 0) k≥1 µk Pk (Xn 6= 0) P P (n) (n) πk πk k≥1 ϕ(k) Pk,j k≥1 ϕ(k) Pk,j = P P = P P (n) πk (n) πk P P k≥1 i≥1 ϕ(k) k,i i≥1 k≥1 ϕ(k) k,i Pµ (Xn = j|Xn 6= 0) = πj /ϕ(j) = µj . i≥1 πi /ϕ(i) = P Pour obtenir la dernière égalité, nous avons utilisé que π est une mesure invariante pour Q définie par (3.1.32). Ce résultat nous donne le comportement limite (en loi) de Xn , sachant Xn 6= 0. Il est également intéressant de déterminer le comportement limite de la chaîne (Xl )0≤l≤N à “horizon fini” N (arbitrairement grand, mais fixé), sachant que Xn 6= 0, lorsque n → ∞. Cela revient à vouloir connaître la loi de (Xl )0≤l≤N conditionnellement au fait que le processus ne s’éteindra jamais. Théorème 3.1.35 Plaçons-nous de nouveau sous les hypothèses du Théorème 3.1.34-(b). Soit N ≥ 1 fixé. Pour tout i ≥ 1, la chaîne (Xl )1≤l≤N converge en loi, sous les probabilités conditionnelles sachant que Xn 6= 0 et lorsque n → ∞, vers une chaîne de Markov à valeurs dans N? de matrice de transition Q. Cette nouvelle chaîne est souvent appelée le Q-processus associé à la chaîne initiale X. Remarquons qu’elle vit sur N∗ , puisque l’on a conditionné à la non-extinction. Par ailleurs, nous avons déjà vu que la probabilité invariante de cette chaîne est π. Remarquons, et cela peut paraître surprenant, que la limite de Yaglom µ et cette probabilité invariante π ne sont pas égales, contrairement à ce que l’intuition aurait pu laisser supposer. Une manière équivalente d’énoncer le résultat du Théorème 3.1.35 consiste à dire que Pi (X0 = i0 , X1 = i1 , . . . , XN = iN |Xn 6= 0) → δii0 Qi0 ,i1 Qi1 ,i2 . . . QiN −1 ,iN pour tous ij ≥ 1, lorsque n → ∞, où δij est le symbole de Kronecker. (3.1.39) 126 CHAPITRE 3. DYNAMIQUE DES POPULATIONS Preuve. Nous allons montrer (3.1.39). En utilisant (3.1.32), nous obtenons Pi (X0 = i0 , X1 = i1 , . . . , XN = iN |Xn 6= 0) P (n−N ) k≥1 PiN ,k = δii0 Pi0 ,i1 Pi1 ,i2 . . . PiN −1 ,iN P (n) k≥1 Pi0 ,k λQiN −1 ,iN ϕ(iN −1 ) λQi0 ,i1 ϕ(i0 ) λQi1 ,i2 ϕ(i1 ) ... = δii0 ϕ(i1 ) ϕ(i2 ) ϕ(iN ) P (n−N ) k≥1 QiN ,k /ϕ(k) . = δii0 Qi0 ,i1 Qi1 ,i2 . . . QiN −1 ,iN P (n) q /ϕ(k) k≥1 iN k (n−N ) P k≥1 P λn−N QiN ,k ϕ(iN )/ϕ(k) k≥1 (n) λn QiN ,k ϕ(i0 )/ϕ(k) P P (n) Nous avons vu dans la preuve précédente que k≥1 Qi,k /ϕ(k) converge vers k≥1 πk /ϕ(k) quand n tend vers l’infini, de sorte que l’expression précédente tend vers δii0 Qi0 ,i1 Qi1 ,i2 . . . QiN −1 ,iN , et le résultat est prouvé. Nous allons maintenant appliquer les résultats précédents dans le cas particulier de la chaîne de BGW, pour laquelle nous utilisons comme précédemment les notations m, m2 pour les moments d’ordre 1 et 2 et la notation g pour la fonction génératrice de la loi de reproduction. Nous supposons (3.1.5), et C est la classe transiente décrite dans la Proposition 3.1.6. Nous allons étudier l’existence de mesures quasi-stationnaires dans le cas sous-critique où l’on sait que le processus s’éteint presque-sûrement. Théorème 3.1.36 Si m < 1 et m2 < +∞, il existe une probabilité quasi–stationnaire µ = (µj )j≥1 . Pour i, j ≥ 1, on a Pi (Xn = j | Xn 6= 0) = Pi (Xn = j | T0 > n) → µj , et µj > 0 si et seulement si j ∈ C. De plus pour tout N fixé, la chaîne (Xl )1≤l≤N converge en loi, sous la probabilité conditionnelle Pi (.|Xn 6= 0) avec i ≥ 1 et quand n → ∞, vers une chaîne de Markov à valeurs jP dans N? , partant de i et de transitions qij = imi,j . Preuve. Nous avons vu ci-dessus que les hypothèses (3.1.31) sont satisfaites avec ϕ(i) = i et λ = m < 1, et (3.1.30) est trivial. Nous associons à P les matrices de transition Q et (n) Qn définies par (3.1.32). D’après la preuve de la proposition 3.1.6, on sait que Pi,j = 0 si n ≥ 1 et j ∈ / C ∪ {0}. Par suite, les singletons {j} pour j ∈ / C et j ≥ 1 sont aussi des classes transientes pour la chaîne de transition Q. D’après (3.1.36), C est alors l’unique classe de la chaîne associée à Q qui peut être récurrente positive. Posons i0 = inf{j ≥ 1, qj > 0}. (Rappelons que qi est la probabilité d’avoir i descendants). Nous avons Pi0 ,i0 = i0 qi0 (q0 )i0 −1 > 0, puisque la seule possibilité pour qu’un groupe de i0 3.1. PROCESSUS DE POPULATION EN TEMPS DISCRET 127 individus ait i0 descendants est qu’un des individus ait i0 descendants et les autres 0 (par hypothèse, on ne peut avoir moins de i0 descendants, sauf 0). Nous en déduisons que la période de i0 , donc de la classe C, est 1 pour la chaîne (Xn ), donc aussi pour celle associée à Q (par (3.1.35)). Pour pouvoir appliquer les théorèmes 3.1.34 et 3.1.35, il nous suffit alors de montrer (n) que Q1,i ne tend pas vers 0 pour tout i ≥ 1. (Cela assurera que la classe est positive). Rappelons qu’ici, (n) jPi,j jPi,j (n) ; Qi,j = Qi,j = im imn P (n) Nous allons montrer que Φn (s) = i≥1 Q1,i si converge vers une limite non nulle pour un (n) s ∈]0, 1[. Alors il existera i ≥ 1 tel que Q1,i ne converge pas vers 0. On a mn+1 Φn+1 (s) = = = = X (n+1) P1,i i≥1 0 (s) sgn+1 0 s gn (g(s)) 0 i si = E1 Xn+1 sXn+1 g 0 (s) sg (s) sg 0 (s) n E1 Xn g(s)Xn = m Φn ◦ g(s). g(s) g(s) Par suite, comme Φ0 (s) = s, on a Φn (s) = s n−1 Y g 0 ◦ gk (s) . m k=0 Notons que 0 < g 0 (s) < m pour tout s ∈ [0, 1[, donc 0 < Φn (s) < 1 si 0 < s < 1. Il nous suffit alors de prouver que le produit infini de terme général g 0 ◦ gk (s)/m est convergent (ce qui signifie que Φn (s) converge vers une limite Φ(s) > 0), et ceci est réalisé si la série de terme général uk = 1 − g 0 ◦ gk (s)/m est absolument convergente. En faisant un développement limité à l’ordre 1 de g 0 (s) au voisinage de 1 (qui est possible car m2 < ∞), nous obtenons 1− g 0 (s) g 00 (1) = (1 − s) + (1 − s)ε(1 − s), m m où la fonction ε tend vers 0 en 0. Il existe donc une constante a telle que 0≤1− g 0 (s) ≤ a(1 − s). m Or 0 ≤ 1 − gk (s) ≤ mk (1 − s), donc 0 ≤ uk ≤ amk (1 − s), et le résultat suit puisque m < 1. 128 3.1.6 CHAPITRE 3. DYNAMIQUE DES POPULATIONS Les chaînes densité-dépendantes Nous allons considérer maintenant, de manière un peu superficielle, des chaînes BGW qui sont densité–dépendantes et sans immigration. Bien sûr, ce sont des modèles beaucoup plus crédibles du point de vue de la biologie. Nous les développerons plus en détail dans le cadre du temps continu, dans le chapitre suivant. L’état 0 est toujours un état absorbant, et le temps d’extinction est encore T0 = inf{n : Xn = 0}. En revanche, la “propriété de branchement” n’est plus valide. Typiquement, une telle chaîne modélise l’évolution d’une population de type BGW en prenant en compte des ressources limitées qui diminuent les possibilités de reproduction, lorsque l’effectif r de la population augmente. Il est alors naturel de supposer que les moyennes m(r) des lois de reproduction q(r) et les probabilités de mort sans descendance q0 (r) vérifient : m(r + 1) ≤ m(r), q0 (r) ≤ q0 (r + 1). (3.1.40) Par exemple, considérons un cadre d’interaction appelé "logistique", où le nombre total d’individus agit linéairement sur la probabilité q0 (r). Nous pouvons modéliser cette situation ainsi : q0 (r) = qi q0 + Cr ; qi (r) = , 1 + Cr 1 + Cr où (qi )i∈N est une probabilité sur N et C une constante strictement positive. Ce modèle vérifie bien les propriétés (3.1.40). Nous allons nous contenter de montrer un résultat partiel d’extinction. Nous verrons dans la preuve que la densité-dépendance entraîne de grosses PcomplicationsPtechniques. Rappelons que m(r) < 1 implique q0 (r) > 0, puisque m(r) = j≥1 jqj (r) ≥ j≥1 qj (r) = 1 − q0 (r). Théorème 3.1.37 Supposons que la loi de reproduction vérifie q0 (r) > 0 et m(r) < +∞ pour tout r ≥ 1. Supposons de plus qu’il existe un a ∈]0, 1[ tel que m(r) ≤ a pour tout r ≥ 1 sauf (éventuellement) pour un nombre fini. Alors nous avons extinction presque-sûre du processus : Pi (T0 < +∞) = 1. Notons que sous (3.1.40) les hypothèses de ce théorème se réduisent à q0 (1) > 0 et limr→∞ m(r) < 1. Preuve. Comme q0 (r) ≥ 1−m(r) ≥ 1−a si m(r) ≤ a, nous avons d’après les hypothèses que b= inf q0 (r) ∈]0, 1[ {r; m(r)≤a} Le même calcul que dans le cas densité-indépendant montre que Ei (Xn+1 |F n ) = Xn m(Xn ) 3.1. PROCESSUS DE POPULATION EN TEMPS DISCRET (avec m(0) = 0). Ainsi, la suite X0 , Qn−1 Zn = Xn / l=0 m(Xl ) 129 si n = 0 si n ≥ 1 est une martingale positive, d’espérance Ei (Zn ) = i. Elle converge alors Pi –presquesûrement vers une limite finie. Par suite, la variable aléatoire M = supn Zn est finie Pi –presque-sûrement et nous avons Xn ≤ M U n , où Un = n−1 Y m(Xl ). (3.1.41) l=0 Soit αN (i, j) le nombre de fois où Xn passe en j ≥ 1 entre les instants 0 et N , en partant de i. Comme 0 est un état absorbant, ce nombre est égal au nombre de fois où Xn = j et Xn+1 > 0 pour n entre 0 et N − 1, plus éventuellement 1. Donc pour j ≥ 1, N −1 N X X 1{Xn =j,Xn+1 >0} ). 1{Xn =j} ) ≤ 1 + Ei ( αN (i, j) = Ei ( n=0 n=0 Comme pj0 = q0 (j)j ≥ bj , nous pouvons en déduire par la propriété de Markov que si j est tel que m(j) ≤ a, Pi (Xn = j, Xn+1 > 0) = (1 − q0 (j)j ) Pi (Xn = j) ≤ (1 − bj ) Pi (Xn = j), puis que αN (i, j) ≤ 1 + (1 − bj )αN −1 (i, j). En itérant cette relation et comme α0 (i, j) ≤ 1, nous obtenons αN (i, j) ≤ 1 + (1 − bj ) + . . . + (1 − bj )N ≤ 1/bj . P En faisant tendre N vers l’infini, nous en déduisons que Ei ( n 1{Xn =j} ) < +∞. Le nombre de visites de la chaîne en j partant de i est intégrable. Soit C l’ensemble (fini) des j tels que m(j) > a. Nous avons, si X0 = i, Y Pn−1 Un ≤ a k=0 1{Xk ∈C c } m(j)αn−1 (i,j) . j∈C P Mais comme chaque variable aléatoire finie pour j ∈ C, n 1{Xn =j} est presque-sûrement Pn−1 le nombre de passages par C est fini presque-sûrement. Ainsi, k=0 1{Xk ∈C c } tend vers l’infini avec n. Par suite Un converge vers 0 presque-sûrement quand n tend vers l’infini et (3.1.41) entraîne qu’il en est de même de la suite Xn . Comme Xn est à valeurs entières et que 0 est absorbant, cela donne le résultat. 130 3.2 CHAPITRE 3. DYNAMIQUE DES POPULATIONS Processus markoviens de saut en temps continu Dans le chapitre précédent, nous avons considéré des processus de branchement indexés par un temps entier qui modélise par exemple un nombre de générations ou un nombre de périodes de temps dans un processus de reproduction cyclique (reproduction saisonnière, annuelle) ou un temps physique discrétisé. Dans ce chapitre, nous allons considérer des populations qui se reproduisent et meurent à des temps aléatoires, continûment au cours du temps. La modélisation de la dynamique de ces populations va alors prendre en compte le temps physique qui évolue de manière continue : t ∈ R+ . Plus précisément, nous allons nous intéresser au processus aléatoire (Xt , t ≥ 0) qui décrit la dynamique de la taille de la population. A chaque temps de naissance, le processus croît de 1, ou plus si il y a une reproduction multiple, et à chaque mort il décroît de 1. Les temps auxquels ont lieu les naissances et les morts sont aléatoires et il est nécessaire de connaître leur loi, de même que la loi de reproduction. Nous verrons dans la suite de ce chapitre le lien entre entre ces processus aléatoires de saut en temps continu et les équations déterministes de Kolmogorov. Ces équations justifient une approche standard des biologistes théoriciens consistant à étudier la dynamique au cours du temps de la probabilité d’avoir une population de taille fixée. Nous supposerons que le processus aléatoire (Xt , t ≥ 0) est markovien, c’est à dire que son comportement aléatoire dans le futur ne dépend du passé que par l’information donnée par son état présent (nous verrons une définition précise ci-dessous). Nous verrons dans la suite que cette hypothèse implique en fait une certaine propriété de non-vieillissement qui est une hypothèse biologique forte. Toutefois l’hypothèse de markovianité donne un cadre mathématique qui permet d’obtenir des résultats rigoureux et des réponses quantitatives à un certain nombre de questions. Elle est donc largement acceptée par les biologistes. 3.2.1 Définition et premières propriétés Le processus aléatoire (Xt , t ≥ 0) fait donc partie de la classe des processus markoviens de saut que nous allons étudier dans cette partie. Définition 3.2.1 Un processus de saut est un processus (Xt , t ≥ 0) à valeurs dans un espace fini ou dénombrable E dont les trajectoires sont presque-sûrement continues à droite et limitées à gauche et constantes entre les instants de saut qui sont isolés. Ainsi, la donnée du processus (Xt , t ≥ 0) est équivalente à la donnée de la suite de variables aléatoires (Tn , Zn ), n ≥ 0, où Tn ∈ R ∪ {+∞} est le n-ième instant de saut et Zn ∈ E la position du processus juste avant le saut Tn+1 . Nous supposons de plus que T0 = 0, que les instants de saut Tn ∈ R ∪ {+∞} forment une suite croissante et que Tn (ω) < Tn+1 (ω) si Tn (ω) < +∞. On suppose également que les instants de saut ne s’accumulent pas en un temps fini : lim Tn (ω) = +∞. n→∞ (3.2.42) 3.2. PROCESSUS MARKOVIENS DE SAUT EN TEMPS CONTINU 131 Dans ce cas, nous avons Xt (ω) = X Zn (ω)1[Tn (ω),Tn+1 (ω)[ (t). n≥0,Tn (ω)<+∞ Une trajectoire type est représentée en Figure 1. Z3 Z0 Z2 T0 T1 T2 T3 T4 Z4 Z1 Figure 3.3 – Trajectoire d’un processus markovien de saut Remarque 3.2.2 Pour une dynamique de population sans immigration, l’état 0 est un état absorbant au sens où XTn (ω) = 0 =⇒ Tn+1 (ω) = +∞ et Xt = 0, ∀t ≥ Tn . Nous allons étudier de tels processus de saut en les supposant de plus markoviens, dans le sens suivant. Définition 3.2.3 Un processus de saut (Xt , t ≥ 0) à valeurs dans E est un processus markovien de saut (ou une chaîne de Markov en temps continu), si pour tout 0 < s < t, la loi conditionnelle de la variable aléatoire Xt sachant (Xu , u ≤ s), ne dépend que de Xs , c’est-à-dire que pour tout n ∈ N, pour tous 0 ≤ t0 < t1 < · · · < tn < s et les états i0 , i1 , · · · , in , i, j ∈ E, on a P (Xt = j | Xt0 = i0 , Xt1 = i1 , · · · , Xtn = in , Xs = i) = P (Xt = j | Xs = i) . On dit que ce processus markovien est homogène si la probabilité P (Xt = j | Xs = i) ne dépend de s et t que par la différence t − s. Dans la suite, nous développons le cas d’un processus homogène et nous utilisons la notation P (Xt = j | Xs = i) = Pi,j (t − s), 132 CHAPITRE 3. DYNAMIQUE DES POPULATIONS et pour tout t > 0, P (t) = (Pi,j (t))i,j∈E est une matrice markovienne sur E × E, (matrice de taille infinie dont les sommes des éléments de chaque ligne valent 1), appelée matrice de transition de (Xt , t ≥ 0). Nous notons µ(t) la loi de Xt et µ(0) = µ désigne la loi initiale du processus. Nous identifierons une fonction g : E → R avec le vecteur (gj )j∈E où gj = g(j), et une mesure µ sur E avec le vecteur (µi ) où µi = µ({i}). Proposition 3.2.4 Soit (Xt )t un processus markovien de saut homogène, de loi initiale µ et de matrice de transition (P (t), t > 0). Pour tout n ∈ N, pour tous 0 < t1 < · · · < tn , la loi du vecteur aléatoire (X0 , Xt1 , · · · , Xtn ) est donnée par : pour tous i0 , i1 , · · · , in ∈ E, P (X0 = i0 , Xt1 = i1 , · · · , Xtn = in ) = µi0 Pi0 ,i1 (t1 )Pi1 ,i2 (t2 − t1 ) × · · · × Pin−1 ,in (tn − tn−1 ). (3.2.43) Preuve. Il résulte immédiatement des probabilités conditionnelles et de la propriété de Markov que P (X0 = i0 , Xt1 = i1 , · · · , Xtn = in ) = P(X0 = i0 ) P(Xt1 = i1 |X0 = i0 ) P (Xt2 = i2 |X0 = i0 , Xt1 = i1 ) × · · · × P Xtn = in |X0 = i0 , , · · · , Xtn−1 = in−1 = µi0 Pi0 ,i1 (t1 ) Pi1 ,i2 (t2 − t1 ) × · · · × Pin−1 ,in (tn − tn−1 ). Cette proposition est fondamentale car elle montre que la loi µ et la matrice de transition (P (t), t > 0) suffisent à caractériser la loi du processus, qui est une probabilité sur l’ensemble des fonctions de R+ à valeurs réelles muni de la tribu produit. En effet, le théorème fondamental de Kolmogorov (1933) montre que la loi d’un processus à valeurs dans cet espace est caractérisée par les lois des marginales fini-dimensionnelles (Xt1 , · · · , Xtn ), pour tous 0 ≤ t1 < · · · < tn et pour tout n ∈ N∗ . En particulier, pour tout t > 0, la loi µ(t) de Xt sera donnée par µ(t) = µP (t), au sens où pour tout j ∈ E, µj (t) = X µi Pi,j (t). i∈E De plus, pour toute fonction positive ou bornée g : E → R, nous avons X E(g(Xt )| X0 = i) = (P (t)g)i = Pi,j (t)gj . j∈E 3.2. PROCESSUS MARKOVIENS DE SAUT EN TEMPS CONTINU 133 Proposition 3.2.5 Les matrices (P (t), t > 0) vérifient que P (0) = Id et la relation de semi-groupe, appelée équation de Chapman-Kolmogorov : P (t + s) = P (t)P (s), (3.2.44) où le produit (qui commute donc) est compris au sens matriciel. Preuve. Soit i, k ∈ E. On a Pi,k (t + s) = P(Xt+s = k|X0 = i) = X P (Xt = j, Xt+s = k|X0 = i) j = X P(Xt+s = k|Xt = j)P(Xt = j|X0 = i) = X j Pi,j (t)Pj,k (s) j par la propriété de Markov, d’où P (t + s) = P (t)P (s). 3.2.2 Un prototype : le processus de Poisson 1 - Définition d’un processus de Poisson Nous allons introduire le prototype de ces processus, à savoir le processus de Poisson. Ce processus modélise des apparitions aléatoires de points sur R+ qui vont correspondre pour nous dans la suite, à des instants de naissance d’individus. Définition 3.2.6 Un processus ponctuel sur R+ se décrit par la donnée d’une suite (presque-sûrement) croissante de temps aléatoires 0 < T1 < T2 < · · · < Tn < · · · , définis sur un espace de probabilité (Ω, F, P), à valeurs dans R+ et vérifiant Tn → +∞ presque-sûrement, quand n tend vers l’infini. Les variables aléatoires Tn modélisent des instants où se produisent des événements. On pose S1 = T1 ; S2 = T2 − T1 ; · · · , Sn = Tn − Tn−1 , · · · Les variables aléatoires Sn modélisent les longueurs des intervalles ou temps d’attente entre deux événements successifs. 134 CHAPITRE 3. DYNAMIQUE DES POPULATIONS Définition 3.2.7 La fonction aléatoire de comptage (Nt )t≥0 associée au processus ponctuel {Tn , n ∈ N} est définie par X Nt = sup{n, Tn ≤ t} = 1{Tj ≤t} . j≥1 Nt est donc le nombre d’événements qui se sont produits avant l’instant t et l’on a NTn = n pour tout n. Remarquons que N0 = 0 puisque T1 > 0 et que pour tout t, Nt < +∞ puisque la suite (Tn ) tend vers l’infini. Pour 0 ≤ s < t, Nt − Ns est le nombre d’événements qui ont eu lieu pendant l’intervalle de temps ]s, t]. Nt = n 2 1 0 T1 0 S1 T2 S2 Tn t Tn+1 S n+1 Figure 3.4 – Trajectoire d’un processus ponctuel Remarquons que les trajectoires t → Nt (ω) d’un tel processus sont continues à droite et limitées à gauche, par définition. Remarque 3.2.8 Les données de la loi du processus ponctuel et de la fonction aléatoire qui lui est associée sont en fait équivalentes. En effet, nous avons {Nt ≥ n} = {Tn ≤ t} {Nt = n} = {Tn ≤ t < Tn+1 } {Nt ≥ n > Ns } = {s < Tn ≤ t}. Définition 3.2.9 Le processus ponctuel (Tn ) ou (Nt , t ≥ 0) est appelé processus de Poisson si (Nt , t ≥ 0) est à accroissements indépendants et stationnaires, c’est à dire si 1) Pour tous t0 < t1 < · · · < tn dans R+ , les accroissements Ntj − Ntj−1 , 1 ≤ j ≤ n sont des variables aléatoires indépendantes. 2) Pour 0 ≤ s < t, la loi de Nt − Ns ne dépend de s et t que par la différence t − s. Elle est donc égale à la loi de Nt−s . 3.2. PROCESSUS MARKOVIENS DE SAUT EN TEMPS CONTINU 135 La propriété (2) s’appelle la stationnarité des accroissements. Le nom de processus de Poisson est justifié par la propriété suivante : Proposition 3.2.10 Soit (Nt , t ≥ 0) un processus de Poisson. Alors il existe λ > 0 tel que pour tous 0 ≤ s < t, Nt − Ns est une variable aléatoire de Poisson de paramètre λ(t − s). On a donc P(Nt − Ns = k) = e−λ(t−s) (λ(t − s))k , ∀k ∈ N. k! Définition 3.2.11 Le paramètre λ est appelé intensité du processus de Poisson. Il est égal au nombre moyen d’événements qui se produisent pendant une unité de temps, puisque E(Nt+1 − Nt ) = λ. On dit aussi que les événements se produisent au taux λ. Preuve. Soit gt−s la fonction génératrice de Nt − Ns . Nous avons, pour u ∈ [0, 1], X gt−s (u) = E(uNt −Ns ) = P(Nt − Ns = k) uk . k≥0 Nous voulons montrer que gt−s est la fonction génératrice d’une variable aléatoire de loi de Poisson de paramètre λ(t − s), c’est-à-dire que gt−s (u) = exp(−(λ(t − s)(1 − u)). Nous allons calculer gt (u). Par indépendance des accroissements, nous obtenons gt (u) = gt−s (u)gs (u), et plus généralement nous pouvons prouver que gt (u) = ((g1 (u))t . (On le prouve pour les entiers puis pour les rationnels et on conclut en utilisant la décroissance de t → gt (u)). Par ailleurs, comme gt (u) ≥ P(Nt = 0) = P(T1 > t), qui tend vers 1 quand t → 0, nous pouvons assurer que g1 (u) est non nul, et comme g1 (u) ≤ 1, il existe donc un λ(u) > 0 tel que gt (u) = e−λ(u)t . Nous voulons montrer que λ(u) est de la forme λ × (1 − u), avec λ constante. Remarquons que 1 1X P(Nt = k)(1 − uk ). λ(u) = lim (1 − gt (u)) = lim t↓0 t t↓0 t k≥1 Puisque u ≤ 1, nous en déduisons que pour tout t, 1 1 1 0 ≤ (1 − gt (u)) − P(Nt = 1)(1 − u) ≤ P(Nt ≥ 2). t t t 136 CHAPITRE 3. DYNAMIQUE DES POPULATIONS Supposons que 1t P(Nt ≥ 2) tende vers 0 quand t → 0. Nous en déduirons alors que 1 λ(u) = lim P(Nt = 1)(1 − u), t↓0 t et nous observons qu’ainsi λ(u) = (1 − u)λ(0). Nous aurons ainsi prouvé la Proposition 3.2.10 avec λ = λ(0). Pour étudier le comportement asymptotique de P(N2 ≥ t), remarquons que ∪n {Nnt = 0, N(n+1)t ≥ 2} ⊂ {T2 < T1 + t}, et que par la propriété d’accroissements indépendants stationnaires, X P(∪n {Nnt = 0, N(n+1)t ≥ 2}) = P(Nnt = 0)P(Nt ≥ 2) ≤ P(T2 < T1 + t). n Nous en déduisons que X e−λ(0)nt P(Nt ≥ 2) = (1 − e−λ(0)t )−1 P(Nt ≥ 2) ≤ P(T2 < T1 + t). n Mais, quand t ↓ 0, cette dernière quantité vaut P(T2 ≤ T1 ) = 0. Comme pour t suffisamment petit, nous avons par ailleurs que (λ(0)t)−1 ≤ (1 − e−λ(0)t )−1 , nous en déduisons finalement que 1t P(Nt ≥ 2) tend vers 0 quand t → 0. Notons que la Proposition 3.2.10 et la propriété d’indépendance des accroissements permettent d’obtenir la loi de tout vecteur (Nt1 , · · · , Ntd ), pour t1 < · · · < td . Remarque 3.2.12 Nous pouvons donner une interprétation intuitive de ce résultat. Il résulte de la preuve ci-dessus que P(Nt+h − Nt = 0) = 1 − λh + o(h) P(Nt+h − Nt = 1) = λh + o(h) P(Nt+h − Nt ≥ 2) = o(h). Donc à une probabilité petite devant h près, Nt+h − Nt est une variable aléatoire de Bernoulli prenant la valeur 0 avec probabilité 1 − λh et la valeur 1 avec probabilité λh. Cette propriété jointe à l’indépendance des accroissements et à la formule Nt+s − Nt = n X j=1 (Nt+jh − Nt+(j−1)h ) , avec h = s , n entraîne que Nt+s − Nt suit approximativement une loi binomiale de paramètre (n, λs/n). Nous savons que quand n tend vers l’infini, cette loi tend vers une loi de Poisson de paramètre λs. 3.2. PROCESSUS MARKOVIENS DE SAUT EN TEMPS CONTINU 137 Nous pouvons déduire de la Proposition 3.2.10 la loi du premier temps de saut du processus (Nt ). Corollaire 3.2.13 La loi du premier temps de saut T1 est une loi exponentielle de paramètre λ. De même, pour tout s > 0, la loi du premier événement après s, soit TNs +1 − s, est une loi exponentielle de paramètre λ. Preuve. Pour t > 0, on a P(T1 > t) = P(Nt = 0) = e−λt . De même, P(TNs +1 − s > t) = P(Ns+t − Ns = 0) = P(Nt = 0). 2 - Propriété de Markov Soit (Nt , t ≥ 0) un processus de Poisson d’intensité λ. Pour tout s > 0, introduisons le processus (Nts , t ≥ 0) défini par Nts = Nt+s − Ns . Ce processus compte le nombre d’événements sur l’intervalle ]s, t]. Il est facile de voir que c’est également un processus de Poisson d’intensité λ, indépendant de (Nu , u ≤ s). En particulier, cela entraîne que (Nt , t ≥ 0) vérifie la propriété de Markov et par la Proposition 3.2.10, nous en déduisons la Proposition 3.2.14 Le processus de Poisson d’intensité λ est un processus de Markov. Sa matrice de transition est donnée par Pi,j (t) = e−λt (λt)j−i , si j ≥ i, (j − i)! et Pi,j (t) = 0 sinon. Nous allons généraliser cette propriété à certains instants S aléatoires. Remarquons que la donnée de (Ns , s ≤ t) est équivalente à celle de (Nt , T1 , T2 , · · · , TNt ). La tribu F N t = σ(Ns , s ≤ t) est la tribu engendrée par ces variables et décrit donc toute l’information donnée par le processus (Nt )t jusqu’au temps t. Définition 3.2.15 Etant donné un processus de Poisson (Nt , t ≥ 0), une variable aléatoire S à valeurs dans R+ ∪ {+∞} est un F N t -temps d’arrêt si pour tout t ∈ R+ , {S ≤ t} ∈ F N t . 138 CHAPITRE 3. DYNAMIQUE DES POPULATIONS Toute variable aléatoire constante est clairement un temps d’arrêt. Pour tout n, le temps de saut Tn l’est également. En revanche si t < s, TNs ne l’est pas car {TNs ≤ t} = {Ns − Nt = 0} ∈ / FN t . Proposition 3.2.16 Soit (Nt , t ≥ 0) un processus de Poisson de paramètre λ, et S un temps d’arrêt pour (Nt )t . Sur l’événement {S < +∞}, on pose pour t ≥ 0 NtS = NS+t − NS . Conditionnellement à {S < +∞}, le processus (NtS , t ≥ 0) est un processus de Poisson d’intensité λ, indépendant de la tribu engendrée par la trajectoire de N jusqu’à S. Preuve. Nous savons déjà que le résultat est vrai si S est constant. Supposons que S prenne ses valeurs dans une suite croissante de réels positifs (sj )j . Comme S est un temps d’arrêt, {S = sj } = {S ≤ sj }\{S ≤ sj−1 } ∈ F N sj . Soit 0 = t0 < t1 < t2 < · · · < tk , n1 , n2 , · · · , nk ∈ N et A un événement de la tribu engendrée par la trajectoire de N jusqu’à S. On a A ∩ {S ≤ t} ∈ F N t . Alors P A ∩ki=1 {NtSi − NtSi−1 = ni } X = P {S = sj } ∩ A ∩ki=1 {Nsj +ti − Nsj − Nsj +ti−1 + Nsj = ni } j = X P ({S = sj } ∩ A) j = P (A) k Y P Nsj +ti − Nsj +ti−1 = ni i=1 k Y P Nti −ti−1 = ni . (3.2.45) i=1 Dans cette preuve nous avons utilisé le fait que le processus (Nt )t est à accroissements indépendants et stationnaires. Le résultat est donc établi si la suite des valeurs de S est discrète. Supposons maintenant que S soit un temps d’arrêt quelconque. Nous introduisons la suite (Rn )n définie par X Rn = k2−n 1{(k−1)2−n <S≤k2−n } . k∈N Il est facile de voir que les Rn sont des temps d’arrêt et ainsi, S peut être approché par une suite de temps d’arrêt de la forme précédente. L’égalité (3.2.45) est vraie pour chaque Rn et l’on peut facilement justifier un passage à la limite, du fait de la continuité à droite des trajectoires de (Nt )t . Cela conclut la preuve. Nous en déduisons le résultat fondamental suivant. 3.2. PROCESSUS MARKOVIENS DE SAUT EN TEMPS CONTINU 139 Proposition 3.2.17 Un processus de Poisson (Nt , t ≥ 0) d’intensité λ est un processus de Markov fort. Notons comme précédemment par (Sn )n la suite des temps d’attente entre les sauts. Alors les variables Si sont indépendantes et de loi exponentielle de paramètre λ. Preuve. La propriété de Markov forte est un corollaire immédiat de la Proposition 3.2.16. Nous savons déjà, par le Corollaire 3.2.13, que S1 = T1 suit une loi exponentielle de paramètre λ. Appliquons la Proposition 3.2.16 avec S = Tn . Ainsi Sn+1 = Tn+1 − Tn est le premier instant de saut du processus de Poisson (NTn +t − NTn , t ≥ 0) d’intensité λ et indépendant de T1 , · · · , Tn , donc aussi de S1 , · · · , Sn . Nous avons également la réciproque suivante. Proposition 3.2.18 Soit (Sn )n une suite de variables aléatoires indépendantes et de loi exponentielle de paramètre λ. Posons pour tout n ≥ 1 et tout t > 0, Tn = S1 + · · · + Sn et Nt = sup{n, Tn ≤ t} = Card{n, Tn ≤ t}. Alors (Nt , t ≥ 0) est un processus de Poisson d’intensité λ. Cette proposition est immédiate mais fournit une preuve constructive de l’existence d’un processus de Poisson et un algorithme de simulation. 3 - Comportement asymptotique d’un processus de Poisson Soit (Nt , t ≥ 0) un processus de Poisson d’intensité λ. Nous avons alors E(Nt ) = λt, V ar(Nt ) = λt. E(t−1 Nt ) = λ, V ar(t−1 Nt ) = Ainsi, donc Nt t λ , t converge en moyenne quadratique vers λ, quand t tend vers l’infini. En fait nous avons également une version forte de cette loi des grands nombres. Proposition 3.2.19 Soit (Nt , t ≥ 0) un processus de Poisson d’intensité λ. Alors converge presque-sûrement vers λ, quand t tend vers l’infini. Nt t P Preuve. Remarquons tout d’abord que Nn = ni=1 (Ni − Ni−1 ) est la somme de variables aléatoires indépendantes de même loi de Poisson de paramètre λ. Il résulte alors de la loi forte des grands nombres que Nnn converge presque-sûrement vers λ, quand n tend vers l’infini. Nous pouvons alors écrire N[t] [t] Nt − N[t] Nt = + . t [t] t t 140 CHAPITRE 3. DYNAMIQUE DES POPULATIONS n Il nous suffit alors de montrer que supn≤t<n+1 Nt −N tend vers 0 quand n tend vers l’infini. n Posons ξn = sup (Nt − Nn ) = Nn+1 − Nn . n≤t<n+1 Les ξn sont indépendantes et de même loi de Poisson de paramètre λ. La loi des grands n converge vers λ presque-sûrement et donc que ξnn nombres entraîne alors que ξ1 +···+ξ n converge presque-sûrement vers 0. Nous avons également un théorème de la limite centrale. Théorème 3.2.20 Soit (Nt , t ≥ 0) un processus de Poisson d’intensité λ. Alors le proces N√ t −λt , t ≥ 0 converge en loi, quand t tend vers l’infini, vers une variable aléatoire de sus λt loi normale centrée réduite. Preuve. Nous allons raisonner comme dans précédente. Par le théorème de la la preuve N√ n −λn limite centrale, nous savons que la suite converge en loi vers Z quand n tend λn n vers l’infini, où Z est une variable aléatoire de loi normale centrée réduite. De plus, Nt −N[t] √ λt ≤ ξ √[t] . λt Or, √ √ ξn P( √ > ε) = P(ξn > ε n) = P(ξ1 > ε n), n qui tend vers 0 quand n tend vers l’infini. Donc Finalement nous avons Nt −N[t] √ λt ≤ ξ √[t] λt tend en probabilité vers 0. r N[t] − λ[t] [t] Nt − λt √ p = × t λt λ[t] Nt − N[t] √ [t] − t + √ + λ √ . t λt Nous pouvons alors conclure, sachant que Nt − N[t] et N[t] sont indépendantes. Nous pourrons utiliser pour le montrer les fonctions caractéristiques, comme au paragraphe 2.2.2. Nous pouvons en fait établir également un théorème de la limite centrale fonctionnel, qui montre la convergence de la fonction aléatoire t → Yut = Nut − λtu √ λu vers le mouvement brownien, quand u tend vers l’infini. La preuve s’inspire de celle déjà vue en Section 2.2.2. En effet, nous avons montré que pour t fixé, Yut converge en loi vers une variable aléatoire Bt centrée, de variance t. De même nous pouvons étudier le comportement en loi de (Yut1 , Yut2 − Yut1 , · · · , Yutk − 3.2. PROCESSUS MARKOVIENS DE SAUT EN TEMPS CONTINU 141 Yutk−1 ), pour t1 < · · · < tk , et montrer que ce vecteur converge vers (Zt1 , Zt2 −t1 , · · · , Ztk −tk−1 ), où les variables aléatoires Zti −ti−1 sont indépendantes et suivent des lois normales centrées de variances respectives ti − ti−1 . Remarquons par ailleurs que l’amplitude des sauts de Yut est √1λu qui tend vers 0 quand u tend vers l’infini. Nous avons donc montré que le processus (Yut , t ≥ 0) converge au sens des marginales fini-dimensionnelles, vers un processus (Bt , t ≥ 0) qui est à accroissements indépendants et stationnaires, à trajectoires continues et tel que pour chaque t > 0 la variable aléatoire Bt est une variable normale centrée et de variance t. C’est un mouvement brownien (Voir Section 2.2). 4 - Processus de Poisson composé A partir du processus de Poisson, nous pouvons construire des processus markoviens de saut plus compliqués en supposant que les amplitudes de saut sont aléatoires. Ces processus sont appelés processus de Poisson composés. Exemple 3.2.21 Soit (Nt , t ≥ 0) un processus de Poisson d’intensité λ et d’instants de sauts (Tn )n . Donnons-nous par ailleurs une chaîne de Markov (Zn )n à valeurs dans Z, indépendante de (Nt )t et de matrice de transition Mi,j . Alors Xt = ∞ X Zn 1[Tn ,Tn+1 [ (t) n=0 est un processus markovien de saut de matrice de transition X X P(Nt = n)P(Zn = j|Z0 = i), P(Tn ≤ t < Tn+1 , Zn = j|Z0 = i) = Pi,j (t) = n n par indépendance. D’où −λt Pi,j (t) = e X (λt)n n 3.2.3 n! (n) Mi,j . Générateur d’un processus markovien de saut Revenons ici au cadre général des processus markoviens de saut. Nous avons vu que la loi d’un tel processus est caractérisée par son semi-groupe dès lors que l’on connaît sa condition initiale (Proposition 3.2.4). La donnée du semi-groupe correspond à la donnée d’une infinité de matrices P (t), t > 0. Dans cette partie nous allons montrer qu’il suffit en fait de connaître une seule matrice qui décrit le comportement infinitésimal de P (t) au voisinage de 0. Cela est dû à la propriété de Chapman-Kolmogorov (Proposition 3.2.5). Cette matrice, appelée générateur infinitésimal du processus, permet de décrire la structure du processus en s’aidant de la propriété de Markov forte. X On note F X t la tribu engendrée par le processus X jusqu’au temps t, et par S un F t -temps d’arrêt. 142 CHAPITRE 3. DYNAMIQUE DES POPULATIONS Théorème 3.2.22 Soit S un temps d’arrêt pour le processus markovien de saut Xt . Alors, conditionnellement à {S < +∞} et à {XS = i}, le processus (XS+t , t ≥ 0) est indépendant de la tribu engendrée par X jusqu’au temps S et sa loi est celle de (Xt , t ≥ 0) sachant que X0 = i. La preuve peut s’adapter de celle donnée pour le processus de Poisson (Proposition 3.2.16). Le générateur infinitésimal La propriété de semi-groupe (3.2.44) entraîne que P (t) est connu pour tout t dès qu’il est connu pour t petit. En fait, nous allons montrer qu’il suffit de connaître sa dérivée à droite en 0. Théorème 3.2.23 Soit P (t), t > 0, le semi-groupe des matrices de transition d’un processus markovien de saut (Xt )t à valeurs dans l’ensemble fini ou dénombrable E. Il existe une matrice (Qi,j , i, j ∈ E), appelée générateur infinitésimal du semi-groupe (P (t))t ou du processus de Markov (Xt )t , qui vérifie X Qi,j ≥ 0 pour i 6= j ; Qi,i = − Qi,j ≤ 0, j∈E\{i} cette dernière inégalité étant stricte sauf si l’état i est absorbant. Lorsque h ↓ 0, Pi,j (h) = hQi,j + o(h) pour i 6= j, Pi,i (h) = 1 + hQi,i + o(h). (3.2.46) En outre conditionnellement à X0 = i, l’instant T1 de premier saut et la position Z1 = XT1 après le premier saut sont indépendants, avec T1 de loi exponentielle de paramètre Q , j 6= i . qi := −Qi,i et Z1 de loi sur E donnée par qi,j i Remarque 3.2.24 Le générateur infinitésimal peut aussi être vu comme un opérateur de dérivation de la loi du processus, défini pour toute fonction bornée sur E par Pt f (i) − f (i) . t→0,t>0 t Expliquons le lien avec la matrice Q que nous venons d’introduire en utilisant (3.2.46). Soit f une fonction bornée. Alors, X X Pt f (i) = Pi,j (t)f (j) = Pi,i (t)f (i) + Pi,j (t)f (j) Qf (i) = lim j6=i j X = (1 + tQi,i + o(t))f (i) + (tQi,j + o(t))f (j) j6=i ! = f (i) + t X j6=i Qi,j (f (j) − f (i)) + o(t), 3.2. PROCESSUS MARKOVIENS DE SAUT EN TEMPS CONTINU 143 et donc Qf (i) = X Qi,j (f (j) − f (i)). (3.2.47) j6=i Définition 3.2.25 On appelle qi le taux de saut du processus issu de i. Nous avons donc P(T1 > t|X0 = i) = e−qi t . Par analogie avec les idées intuitives de l’introduction, le nombre Qi,j sera appelé taux de transition de i vers j. Grâce à la propriété de Markov forte, nous en déduisons le résultat suivant. Corollaire 3.2.26 Pour tout n ∈ N∗ , conditionnellement à la tribu engendrée par le processus jusqu’au temps Tn−1 , la variable aléatoire Tn − Tn−1 est indépendante de Zn = XTn . De plus, la loi conditionnelle de Tn − Tn−1 est une loi exponentielle de paramètre QZ ,j qZn−1 , et la loi conditionnelle de Zn − Zn−1 est donnée par ( qZn−1 , j ∈ E). n−1 Preuve. du théorème. Nous voulons calculer P(T1 > t|X0 = i). Considérons n ∈ N et h > 0 et supposons que h → 0 et que n → ∞ de telle sorte que nh ↑ t. Nous allons utiliser la propriété de semi-groupe. Pour cela, remarquons tout d’abord que {T1 > nh} ⊂ {X0 = Xh = · · · = Xnh } ⊂ {T1 > nh} ∪ {T2 − T1 ≤ h}. Comme P(T2 − T1 ≤ h) → 0 quand h → 0, nous avons que P(T1 > t|X0 = i) = = lim P(X0 = X1 = · · · = Xnh |X0 = i) lim (Pi,i (h))n = lim en ln Pi,i (h) , par propriété de Markov. h→0,nh→t h→0,nh→t Comme Pi,i (h) tend vers 1 quand h → 0, nous savons que ln Pi,i (h) ∼ Pi,i (h) − 1 au voisinage de 0. Ainsi, comme de plus n est d’ordre ht , nous pouvons déduire de l’existence de la limite précédente qu’il existe qi ∈ [0, +∞] tel que limh→0 h1 (1 − Pi,i (h)) = qi . Ainsi, P(T1 > t|X0 = i) = e−qi t . Cette dernière propriété entraîne que qi < +∞ et que qi = 0 si et seulement si i est un état absorbant. Nous posons alors Qi,i = −qi . P (h) La démonstration de l’existence d’une limite à i,jh , pour i 6= j, se fait de manière analogue. Nous avons {T1 ≤ t, Z0 = i, Z1 = j} = limh→0,nh→t ∪0≤m≤n {X0 = Xh = · · · = 144 CHAPITRE 3. DYNAMIQUE DES POPULATIONS X(m−1)h = i, Xmh = j}, d’où P(T1 ≤ t, Z1 = j|X0 = i) = lim n−1 X (Pi,i (h))m Pi,j (h) = lim m=0 = lim(1 − (Pi,i (h))n ) = 1 − (Pi,i (h))n Pi,j (h) 1 − Pi,i (h) h 1 Pi,j (h) 1 − Pi,i (h) h 1 − e−qi t 1 lim Pi,j (h). qi h (3.2.48) Ainsi, Qi,j = lim h1 Pi,j (h) existe pour i 6= j et P(T1 ≤ t, Z1 = j|X0 = i) = (1 − e−qi t ) Qi,j , qi d’où P(T1 ≤ t, Z1 = j|X0 = i) = P(T1 ≤ t|X0 = i)P(Z1 = j|X0 = i), ce qui entraîne l’indépendance de T1 et Z1 conditionnellement à X0 = i. De plus, P(Z1 = j|X0 = i) = Qi,j . qi (3.2.49) Enfin, (3.2.48) implique que pour h suffisamment petit, qi 1 Pi,j (h) ≤ 2 P(T1 ≤ t, Z1 = j|X0 = i), h 1 − e−qi t P avec j P(T1 ≤ t, Z1 = j|X0 = i) = P(T1 ≤ t|X0 = i) < +∞. Nous pouvons alors P 1 P 1 appliquer le théorème de P Lebesgue et en déduire que limh j h Pi,j (h) = Pj limh h Pi,j (h). De cela et du fait que j Pi,j (h) = 1, nous en concluons facilement que j Qi,j = 0. Ce théorème nous permet d’obtenir les équations de Kolmogorov, fondamentales dans la pratique. Ces équations décrivent la dynamique temporelle des lois à partir de la matrice de taux. Soit I la matrice identité sur E. Théorème 3.2.27 Sous l’hypothèse (3.2.42), 1) (P (t), t ≥ 0) est l’unique solution de l’équation de Kolmogorov rétrograde dP (t) = QP (t), pour t > 0; P (0) = I, dt (3.2.50) c’est-à-dire que pour tous i, j ∈ E, X dPi,j (t) = Qi,k Pk,j (t). dt k∈E (3.2.51) 3.2. PROCESSUS MARKOVIENS DE SAUT EN TEMPS CONTINU 145 Pour tout i de E et toute fonction g, u(t, i) = E(g(Xt )|X0 = i) est solution de X ∂u (t, i) = Qi,k u(t, k), t > 0, ; u(0, i) = g(i), i ∈ E. ∂t k∈Z 2) (P (t), t ≥ 0) est l’unique solution de l’équation de Kolmogorov progressive dP (t) = P (t)Q, pour t > 0; P (0) = I, dt (3.2.52) c’est-à-dire que pour tous i, j ∈ E, X dPi,j (t) = Pi,k (t)Qk,j . dt k∈E (3.2.53) En outre, la famille des lois marginales µ(t) de Xt satisfait l’équation de Fokker-Planck ∂µj (t) X µk (t)Qk,j , pour t > 0, j ∈ E. = ∂t k∈E Preuve. L’idée de preuve est la suivante. Pour établir l’équation de Kolmogorov rétrograde, il suffit de dériver P (t + h) en h = 0 en utilisant la propriété de semi-groupe sous la forme P (t + h) = P (h)P (t). L’équation pour u s’en déduit en multipliant à droite par le vecteur colonne (gj ). L’équation progressive s’obtient de la même manière, mais en écrivant P (t + h) = P (t)P (h). L’équation de Fokker-Planck s’en déduit alors immédiatement en multipliant à gauche par le vecteur ligne (µi )(0). Chaîne de Markov incluse Soit (Xt )t un processus markovien de saut, associé à (Tn , Zn ), n ≥ 0. La suite Zn = XTn est une chaîne de Markov à temps discret. C’est une conséquence de la propriété de Markov forte de (Xt )t . Elle est appelée chaîne incluse et vérifie que Zn+1 6= Zn , presque-sûrement, pour tout n. Sa matrice de transition se calcule aisément en fonction du générateur Q de Xt , grâce à (3.2.49) : Qij si j 6= i qi P̃i,j = 0 si j = i. Si l’on pose Sn = qZn−1 (Tn − Tn−1 ), P où qi = i6=j Qi,j , et pour tout t ≥ 0, Nt = sup{n, nk=1 Sk ≤ t}, alors le processus (Nt )t est un processus de Poisson d’intensité 1. En effet, il suffit d’appliquer le Corollaire 3.2.26 : la loi conditionnelle de Tn − Tn−1 sachant Zn−1 est une loi exponentielle de paramètre P 146 CHAPITRE 3. DYNAMIQUE DES POPULATIONS qZn−1 , et donc la loi de Sn est une loi exponentielle de paramètre 1. On utilise pour cela le fait que si U est une variable aléatoire exponentielle de paramètre λ, alors λU est une variable aléatoire exponentielle de paramètre 1. Réciproquement, il est possible de définir un processus de Markov à temps continu à valeurs dans E à partir de son générateur infinitésimal. Soit Q une matrice de taux conservative, c’est-à-dire une matrice indexée par E telle que pour tous i, j ∈ E, X Qi,j ≥ 0 si j 6= i ; −∞ < Qi,i = − Qi,j ≤ 0. (3.2.54) j6=i Q si i 6= j et Posons alors qi = −Qi,i et définissons la matrice de transition P̃ par P̃i,j = qi,j i P̃i,j = 0 si j = i, avec la convention P̃i,j = 0 ∀j si Qi,i = 0. A tout i ∈ E, nous associons la chaîne (Zn )n de matrice de transition P̃ et nous considérons un processus de Poisson (Nt ) d’intensité 1 indépendant de (Zn )n . La suite des instants de saut de (Nt ) est notée (Tn0 )n et pour n ≥ 1, on définit Un = 0 Tn0 − Tn−1 qZn−1 ; Tn = U1 + · · · + Un . Si la condition de non-explosion (3.2.42) est satisfaite par (Tn )n , alors X Xt = Zn 1[Tn ,Tn+1 [ (t), t ≥ 0 (3.2.55) n≥0 est un processus markovien de saut de générateur infinitésimal Q. Construction algorithmique de (Xt )t : Il est facile de construire le processus (Xt , t ≥ 0) issu de l’état i en itérant la procédure suivante. • On démarre de X0 = i et on attend un temps exponentiel S1 de paramètre qi . Le processus reste constant égal à i jusqu’au temps S1 . Q • Au temps S1 , le processus saute de l’état i à l’état j avec probabilité qi,j . i • On réitère la procédure (on attend un temps exponentiel S2 de paramètre qj et indépendant de S1 , · · · ). Les temps de vie exponentiels U1 , U2 , · · · sont appelés temps de séjour dans les états respectifs Z1 , Z2 · · · . Le processus minimal a une durée de vie finie si X T∞ = Uk = lim Tn < +∞. k≥1 n Remarquons que T∞ < +∞ entraîne de manière évidente que limt↑T∞ Xt = +∞ ; on dira dans ce cas que le processus explose. 3.2. PROCESSUS MARKOVIENS DE SAUT EN TEMPS CONTINU 147 Etudions maintenant la condition de non-explosion (3.2.42) pour (Tn )n , qui assure que le processus est défini par (3.2.55) pour tout t ∈ R+ , et prouve alors l’existence d’un processus markovien de saut de générateur infinitésimal Q. Proposition 3.2.28 La condition de non-explosion limn Tn = +∞ presque-sûrement, est satisfaite si et seulement si X qZ−1n = +∞ presque-sûrement. (3.2.56) n≥0 Avant de prouver la proposition, énonçons tout de suite un corollaire immédiat. Corollaire 3.2.29 Pour qu’un générateur infinitésimal Q soit le générateur infinitésimal d’un processus markovien de saut vérifiant (3.2.54), il suffit que l’une des deux conditions suivantes soit satisfaite : (i) supi∈E qi < +∞. (ii) La chaîne de Markov (Zn )n de matrice de transition P̃ est récurrente. Preuve. (Proposition 3.2.28). Nous avons vu que Tn −Tn−1 = qZSn et les temps aléatoires n−1 Sn sont indépendants. De plus, Sn est loi exponentielle de paramètre 1, donc conditionnellement à Zn−1 , la variable aléatoire qZSn suit une loi exponentielle de paramètre qZn−1 . n−1 Nous avons donc à montrer que si les (ei ) sont des variables aléatoires indépendantes de loi exponentielle de paramètre qi , alors presque-sûrement, E= X ei = +∞ ⇐⇒ i X1 = +∞. q i i P 1 il est clair que si i qi < +∞, alors E est finie presque-sûrement. P 1 Etudions maintenant le cas où i qi = +∞. Introduisons la transformée de Laplace de E. Elle vaut Y Y qi E(e−λE ) = E(e−λei ) = . λ + q i i i Comme E(ei ) = 1 , qi P = +∞ avec probabilité 1. P λ Le produit ci-dessus est nul si et seulement si la somme i ln 1 + qi vaut −∞. Or, pour P λ suffisamment petit, cette série a le même comportement que − i q1i , ce qui permet de conclure. Elle est nulle si et seulement si i ei 148 3.3 3.3.1 CHAPITRE 3. DYNAMIQUE DES POPULATIONS Processus de branchement et de naissance et mort en temps continu Processus de branchement en temps continu Considérons un processus (Xt )t≥0 décrivant la dynamique de population suivante : • Au temps t = 0, on a un nombre aléatoire X0 d’individus. • Chaque individu a un temps de vie aléatoire qui suit une loi exponentielle de paramètre a. • Au bout de ce temps, l’individu se reproduit ou meurt suivant la loi de reproduction (pi )i∈N . La probabilité de mourir est donc p0 . Nous éviterons les cas triviaux en supposant que p0 > 0 ; p0 + p1 < 1. • Les temps de vie et les nombres d’enfants de chaque individu sont indépendants les uns des autres. Définition 3.3.1 On appelle processus de branchement en temps continu le processus (Xt )t≥0 ainsi défini. Xt représente le nombre d’individus présents au temps t. Quand p0 + p2 = 1, c’est-à-dire si on ne peut avoir qu’au plus un descendant, le processus est appelé processus de branchement binaire ou processus de naissance et de mort linéaire. Un tel processus modélise par exemple le mécanisme de division cellulaire. Si de plus, d = 0 (les individus ne meurent jamais), le processus est appelé processus de fission binaire ou processus de Yule. Nous introduisons l’espérance de la loi de reproduction X k pk . m= k≥0 Pour s ∈ [0, 1], nous introduisons également X g(s) = pk sk , k≥0 la fonction génératrice de la loi de reproduction. Rappelons que si m < +∞, la fonction g est dérivable en 1 et g 0 (1) = m. Notons s0 la plus petite racine de l’équation g(s) = s. Dans la figure 3.5, les branches représentent les lignes de descendance des individus. La figure modélise l’évolution temporelle de ces lignées. 3.3. PROCESSUS DE BRANCHEMENT ET DE NAISSANCE ET MORT 149 Figure 3.5 – Un processus de branchement en temps continu : - t 0 Remarque 3.3.2 Le fait de modéliser le temps de vie des individus par une loi exponentielle peut être discuté. En effet une loi exponentielle possède la propriété de nonvieillissement qui ne représente pas forcément la réalité. Toutefois quelques espèces ne vieillissent pas. L’hydre, petit polype d’eau douce de quelques millimètres, en est un bon exemple, ainsi que certaines tortues, certains mollusques ou certains poissons comme l’esturgeon. (Voir [43] sur ce sujet). Dans les autres cas, l’hypothèse de loi exponentielle est liée à la propriété de Markov pour le processus de saut (Xt )t≥0 , comme nous l’avons vu dans le paragraphe précédent. Elle permet donc de faire des calculs en utilisant les équations de Kolmogorov et est considérée comme une bonne approximation par les biologistes. En vertu du paragraphe précédent, nous allons montrer le théorème suivant. Théorème 3.3.3 Le processus (Xt )t≥0 est un processus markovien de saut. Le processus (Zn )n = (XTn )n est une chaîne de Markov de matrice de transition P telle que Pi,j = pj−i+1 , si j ≥ i − 1 et Pi,j = 0 sinon. Les temps aléatoires Tn+1 − Tn sont indépendants conditionnellement à Zn = i et de loi exponentielle de paramètre i a. Si la population initiale est composée de i individus, les sous-processus issus de ces i ancêtres sont indépendants. Nous pouvons donc écrire Xt comme Xt = Zt1 + . . . + Zti k ≥ 0, 150 CHAPITRE 3. DYNAMIQUE DES POPULATIONS où les (Ztk , t ≥ 0), k = 1, . . . , i, sont des processus indépendants et de même loi, celle d’un processus de branchement issu d’un seul individu. Ainsi la fonction génératrice de Xt est égale au produit des fonctions génératrices des Ztk et le processus X satisfait la propriété de branchement, à savoir que pour tout temps t, pour tout i ≥ 0 et s ∈ [0, 1], ∞ X j=0 Pi,j (t)sj = ∞ X !i P1,j (t)sj . (3.3.57) j=0 Le théorème 3.3.3 sera prouvé grâce au Corollaire 3.2.26 et à la proposition suivante , qui donne le générateur du processus. Proposition 3.3.4 Le générateur du processus de branchement en temps continu est donné par 1) qi = a i. En particulier, q0 = 0 et le point 0 est absorbant. 2) ∀ i 6= j , Qi,j = i a pj−i+1 , si j ≥ i − 1, = 0 sinon. Preuve. 1) Nous savons que qi = limt→0 1−Ptii (t) . Or 1 − Pi,i (t) = Pi (X(t) 6= i). Montrons que cette probabilité est proche de Pi (T1 < t) = 1 − e−ia t pour t petit, où T1 est l’instant de premier saut. En effet, Pi (T1 < t) − Pi (X(t) 6= i) = Pi ( Il y a au moins 2 sauts avant t, un pour quitter i et un pour revenir) ≤ Pi (T2 < t). Or, Pi (T2 < t) = Pi (T1 +T2 −T1 < t) ≤ Pi (T1 < t) Pi (T2 −T1 < t) car par construction, T1 et T2 − T1 sont indépendants. Nous en déduisons que Pi (T2 < t) est d’ordre t2 , négligeable devant Pi (T1 < t) pour t petit. 2) Par un argument similaire, nous avons également que pour i 6= j, Pi,j (t) = P(Xt = j| X0 = i) = P(T1 < t, XT1 = j| X0 = i) + o(t). Ainsi, Qi,j = limt→0 Pi,j (t) t = limt→0 1t Pi (T1 < t) Pi (Z1 = j) = a i pj−1+1 . Nous déduisons du calcul du générateur que Pi,j (h) = i a pj−i+1 h + o(h), Pi,i (h) = 1 − i a h + o(h). pour j ≥ i − 1, 3.3. PROCESSUS DE BRANCHEMENT ET DE NAISSANCE ET MORT 151 En utilisant la section précédente, nous pouvons facilement écrire les équations de Kolmogorov pour le processus Z. X d Pi,j (t) = (P Q)ij (t) = −j a Pi,j (t) + a k pj−k+1 Pi,k (t), dt 1≤k≤j+1,k6=i (progressive) (3.3.58) d Pi,j (t) = (QP )ij (t) = −i a Pi,j (t) + i a pk−i+1 Pk,j (t) (rétrograde), dt k≥i−1,k6=i X (3.3.59) avec les conditions initiales Pi,j (0+) = 1 0 pour i = j, pour i = 6 j. Par exemple, dans le cas de la reproduction binaire critique où p0 = p2 = 12 , l’équation de Kolmogorov rétrograde devient pour tout i, j i a d Pi,j (t) = Pi+1,j (t) + Pi−1,j (t) − 2Pi,j (t) , dt 2 qui donne une équation de récurrence que l’on peut résoudre. Dans le cas général, en intégrant (3.3.58) par une méthode de variation des constantes, nous pouvons écrire ces équations sous forme intégrale. −jat Pi,j (t) = δij e +a j+1 Z X t e−ajs k pj−k+1 Pi,k (t − s)ds, k=1 0 ∞ Z t X Pi,j (t) = δij e−iat + ia k=i−1 (progressive), (3.3.60) e−ais pk−i+1 Pk,j (t − s)ds. (rétrograde), (3.3.61) 0 où δij désigne le symbole de Kronecker. Toutefois, il est plus facile, pour décrire la loi du processus au temps t, d’étudier sa fonction génératrice. Supposons X0 = 1. Le calcul pour une condition initiale X0 = i se fera en utilisant la propriété de branchement (3.3.57). Pour s ∈ [0, 1], nous posons F (s, t) = E(sXt | X0 = 1) = X j≥0 Nous avons alors P(Xt = j| X0 = 1) sj = X j≥0 P1,j (t) sj . 152 CHAPITRE 3. DYNAMIQUE DES POPULATIONS X ∂ ∂ F (s, t) = P1,j (t) sj ∂t ∂t j≥0 X X = sj Q1,k Pk,j (t) j≥0 = X (Equation de Kolmogorov) k≥0 Q1,k k≥0 X sj Pk,j (t) = j≥0 X Q1,k (F (s, t))k . k≥0 Or Q1,1 = −a et Q1,j = a pj si j 6= 1. D’où ∂ F (s, t) = a ∂t ! X pj (F (s, t))j − F (s, t) = a (g(F (s, t)) − F (s, t)) , j≥0 où g est la fonction génératrice de la loi de reproduction. Soit u(s) = a(g(s) − s), s ∈ [0, 1]. Nous pouvons donc écrire ∂ F (s, t) = a (g(F (s, t)) − F (s, t)) = u(F (s, t)) ∂t (3.3.62) avec F (s, 0) = s et F (1, t) = 1. Par exemple, dans le cas binaire critique où p0 = p2 = 12 , u(s) = a( 12 (1+s2 )−s) = a2 (1−s)2 . La fonction génératrice vérifie a ∂ F (s, t) = (1 − F (s, t))2 ; F (s, 0) = s, ∂t 2 d’où F (s, t) = 1 − 1−s . 1 + t (1 − s) a 2 (3.3.63) Dans le cas de reproduction binaire non critique où m = 2p2 6= 1, u(s) = a(1 − s)(− m2 s − a + 1). Nous en déduisons comme précédemment que 2 F (s, t) = 1 − 2 (1 − s) (m − 1) . (ms + m − 2) e−a(m−1)t + (1 − s) m De (3.3.62), nous pouvons aussi déduire une équation pour les moments. Supposons que m < +∞. Soit m(t) = E(Xt ), nous obtenons ∂ ∂ E(Xt ) = u(F (s, t))|s=1 . ∂t ∂s (3.3.64) 3.3. PROCESSUS DE BRANCHEMENT ET DE NAISSANCE ET MORT 153 Ainsi, t → m(t) est solution de l’équation différentielle m0 (t) = u0 (F (1, t)) m(t) = u0 (1) m(t), avec u0 (1) = a (g 0 (1) − 1) = a (m − 1). Nous en déduisons que m(t) = ea (m−1)t E(X0 ). Le paramètre ρ = a (m − 1) est appelé paramètre de Malthus. Dans le cas sur-critique où ρ > 0, m(t) tend vers l’infini ; dans le cas sous-critique où ρ < 0, m(t) tend vers 0. Si ρ = 0, dans le le cas critique, la population reste constante en moyenne. Probabilité et temps d’extinction Intéressons-nous maintenant à l’extinction éventuelle de la population. Notons T0 le temps d’extinction et introduisons alors la probabilité d’extinction q(t) = P1 (T0 ≤ t), t ∈]0, +∞]. Théorème 3.3.5 La loi du temps d’extinction est donnée implicitement par Z q(t) ds = t , t ≥ 0. u(s) 0 Preuve. Remarquons que pour tout t, q(t) = P1 (Xt = 0) = F (0, t) qui est une fonction bornée et croissante en temps car l’état 0 est absorbant. Il est clair que q(0+ ) = 0 et que limt→∞ q(t) = s0 . (Rappelons que s0 est la plus petite racine de g). En effet, limt→∞ q(t) = q∞ est un point stationnaire pour la dynamique définie par (3.3.62) et satisfait donc g(q∞ ) = q∞ . C’est donc le plus petit point fixe de g et q∞ = s0 . De (3.3.62), nous déduisons également que q 0 (t) = u(q(t)), t > 0, (3.3.65) R t ds est bien définie pour t < s0 . En effet, dans avec q(t) ∈ [0, s0 [. La fonction F (t) = 0 u(s) ce cas, g(s) > s et u(s) 6= 0. Si nous intégrons (3.3.65), nous obtenons finalement que F (q(t)) = t. Exemple : le cas binaire Le cas binaire est souvent présenté de la manière suivante : chaque individu a un taux de mort de paramètre d et un taux de reproduction de paramètre b. Dans ce cas, le taux total de saut par individu est a = b + d. La loi de saut est définie ainsi : à chaque saut, b d avec probabilité p2 = b+d on a une naissance et avec probabilité p0 = b+d , on a une mort. 2b Remarquons que m = 2p2 = b+d . 154 CHAPITRE 3. DYNAMIQUE DES POPULATIONS La fonction u s’écrit alors u(s) = d − (b + d)s + bs2 et la probabilité d’extinction est s0 = min(1, db ). Il est facile de vérifier que ce processus est critique si b = d et est surcritique (resp. sous-critique) si b > d (resp. b < d). Il est alors naturel de calculer la probabilité d’extinction en fonction du taux de croissance r = b − d. Tous calculs faits, nous obtenons d(ert − 1)/(bert − d) si b 6= d q(t) = bt/(1 + bt) si b = d. Dans le paragraphe sur les processus de naissance et mort, nous verrons de plus que le temps moyen d’extinction vaut 1 1 si b < d, E1 (T0 ) = log b 1 − b/d et est infini si b ≥ d. Critère de non-explosion Le processus peut avoir un temps de vie infini ou n’être défini que sur un intervalle de temps [0, T∞ [, où T∞ est fini avec probabilité positive. On a le théorème suivant. Théorème 3.3.6 Soit u(s) = a(g(s) − s), s ∈ [0, 1]. Alors le processus de branchement en temps continu a un temps de vie infini presquesûrement si et seulement si m = g 0 (1) < +∞, ou si m = +∞ et Z 1 ds = −∞. 1−ε u(s) Preuve. Nous exclurons le cas trivial où s0 = 1, puisque nous avons Pvu que dans ce cas, le processus s’éteint presque-sûrement. Soit hi (t) = Pi (T∞ > t) = j≥0 Pi (Zt = j). Par la propriété de branchement, nous savons que hi (t) = h(t)i . En sommant les équations de Kolmogorov rétrogrades (3.3.60), nous obtenons que Z t X −at h(t) = e + a e−as pk h(t − s)k ds, t > 0. 0 k≥0 En différenciant la dernière équation et en intégrant par parties, on obtient que h0 (t) = u(h(t)), t > 0. Remarquons que h(t) := h1 (t) est décroissante en t, que h(0+ ) = 1 et que h(t) ∈]s0 , 1] (car s0 annule la fonction u). Supposons que le processus de branchement ait un temps de 3.3. PROCESSUS DE BRANCHEMENT ET DE NAISSANCE ET MORT 155 vie T∞ fini avec probabilitéRpositive de telle sorte que h(t0 ) < 1 pour un temps t0 . Fixons x ds ε ∈]s0 , 1[ et posons F (x) = ε u(s) . Comme la fonction t−F (h(t)) est de dérivée nulle, elle est constante, et t − F (h(t)) = t0 − F (h(t0 )). En faisant R 1 ds tendre t vers 0, nous obtenons que − F (1 ) a une valeur finie. Nous en déduisons que est fini, ce qui entraîne d’ailleurs u(s) que m = ∞. (On pourra faire un développement limité de g(s) au voisinage de 1). R 1 ds Réciproquement, supposons que m = ∞ et que converge. (On remarquera que si u(s) m Nous pouvons alors définir la fonction G(x) = R x <ds ∞, l’intégrale diverge forcément). 0 , pour x ∈]s , 1]. En utilisant h = u(h), nous obtenons que t − G(h(t)) = 0, ce qui 0 1 u(s) implique h(t) < 1 dès que t > 0. Remarque 3.3.7 Nous pouvons aussi remarquer que h(t) = lims→1 F (t, s), ce qui peut permettre dans certains cas de calculer rapidement cette probabilité. Par exemple dans le cas du branchement binaire, les formules (3.3.63) (3.3.64) donnent h(t) = F (1, t) = 1. Dans ce cas le temps d’explosion est infini presque-sûrement et le processus est défini sur tout R+ . Extensions Nous pouvons généraliser ce modèle et considérer des processus de branchement avec immigration ou avec croissance logistique. Immigration : P Soit P ν = (νk )k∈N une mesure positive finie sur N, (∀k, νk ≥ 0 et k νk < +∞), et soit ρ = k≥0 νk . Dans ce modèle de branchement en temps continu avec immigration, • au taux ρ, des groupes d’immigrants arrivent dans la population, indépendamment de l’état de celle-ci. • Un groupe est composé de k individus avec probabilité νρk . • Tous les individus présents dans la population se reproduisent et meurent indépendamment suivant le schéma de branchement précédent. Alors, le processus de branchement avec immigration a les taux de transition : i → i + k au taux i pk+1 + νk i → i − 1 au taux i p0 . Croissance logistique : Soit c > 0 appelé intensité de la compétition. Dans un modèle de branchement avec croissance logistique, 156 CHAPITRE 3. DYNAMIQUE DES POPULATIONS • Tous les individus présents dans la population se reproduisent et meurent indépendamment suivant le schéma de branchement précédent. (p0 est alors appelé taux de mort naturel). • Un individu peut de plus subir la compétition avec les autres individus de la population, compétition pour les ressources par exemple. Le taux auquel il pourra être tué par un autre individu de la population, du fait de cette compétition, est égal à c. Le processus de branchement avec croissance logistique, dit aussi processus de branchement logistique, a alors les taux de transition : i → i + k au taux i pk+1 i → i − 1 au taux ip0 + c i(i − 1). Du fait de l’interaction, la propriété de branchement n’est plus satisfaite. Nous allons développer dans la suite le cas d’un processus de branchement binaire logistique. 3.3.2 Processus de naissance et mort Définition et critère de non-explosion Définition 3.3.8 Un processus de naissance et mort est un processus markovien de saut dont les amplitudes des sauts sont égales à ±1. Ses taux de transition sont donnés par i → i + 1 au taux λi i → i − 1 au taux µi , avec (λi )i et (µi )i deux suites de réels strictement positifs pour i ∈ N∗ et λ0 = µ0 = 0. C’est donc une généralisation d’un processus de branchement binaire pour des taux plus généraux. Dans ce cas, Qi,i+1 = λi , Qi,i−1 = µi , Qi,j = 0 sinon. Le taux global de saut pour une population de taille i vaut λi + µi . Ainsi après un temps de loi exponentielle de paramètre λi + µi , le processus augmente de 1 avec probabilité λi i et décroît de −1 avec probabilité λiµ+µ . Si λi + µi = 0, le processus est absorbé en λi +µi i i. Nous pouvons écrire la matrice du générateur Q = ((Qi,j )). µ1 0 0 ··· ··· −(λ1 + µ1 ) λ1 0 0 ··· µ2 −(λ2 + µ2 ) λ2 0 ··· 0 µ3 −(λ3 + µ3 ) λ3 · · · . 3.3. PROCESSUS DE BRANCHEMENT ET DE NAISSANCE ET MORT 157 Par le théorème 3.2.23, nous avons Pi,i+1 (h) = λi h + o(h) ; Pi,i−1 (h) = µi h + o(h) ; Pi,i (h) = 1 − (λi + µi ) h + o(h). Exemples : 1) Le processus de Yule correspond à λi = iλ, µi = 0. 2) Le processus de branchement ou de naissance et mort linéaire correspond à λi = iλ, µi = iµ. 3) Le processus de naissance et mort avec immigration à λi = iλ + ρ, µi = iµ. 4) Le processus de naissance et mort logistique à λi = iλ, µi = iµ + c i(i − 1). Le théorème suivant caractérise la non-explosion du processus en temps fini. Si tel est le cas, nous pourrons définir le processus pour tout temps t ∈ R+ . Théorème 3.3.9 Supposons que λi > 0 pour tout i ≥ 1. Alors le processus de naissance et mort a un temps de vie infini presque-sûrement si et seulement si X 1 µi µi · · · µ2 R := + + ··· + est infini . λi λi λi−1 λi · · · λ2 λ1 i≥1 Corollaire 3.3.10 Si pour tout i, λi ≤ λ i, avec λ > 0, le processus est bien défini sur tout R+ . Remarque 3.3.11 On peut vérifier que les 4 processus de naissance et mort mentionnés dans les exemples satisfont cette propriété et ont donc un temps de vie infini presquesûrement. Preuve. Soit (Tn )n la suite des temps de saut du processus et (Sn )n la suite des temps entre les sauts, Sn = Tn − Tn−1 , ∀n ≥ 1; T0 = 0, S0 = 0. On notera T∞ = limn Tn . Le processus n’explose pas presque-sûrement, et est bien défini sur tout R+ si et seulement si pour tout i ∈ N, Pi (T∞ < +∞) = 0. Nous allons montrer que le processus n’explose pas presque-sûrement si et seulement si la seule solution x = (xi )i∈N positive et bornée de Q x = x est la solution nulle et nous verrons que c’est équivalent au critère de non-explosion pour les processus de naissance et mort. P (0) (n) Pour tout i, on pose hi = 1 et pour n ∈ N∗ , hi = Ei (exp(− nk=1 Sk )). Posons qi = λi + µi . On a ! ! n+1 n+1 X X Ei exp(− Sk )|S1 = Ei exp(−S1 ) exp(− Sk ) |S1 k=1 k=2 = Ei exp(−S1 ) EXS1 (exp(− n X k=1 ! Sk )) , 158 CHAPITRE 3. DYNAMIQUE DES POPULATIONS par la propriété de Markov, car pour le processus translaté de S1 , les nouveaux temps de sauts sont les Tn − S1 . On a alors ! n n n X X X X X Qi,j Ej (exp(− E EXS1 (exp(− Sk )). Sk )) = Pi (XS1 = j) Ej (exp(− Sk )) = q i k=1 k=1 j6=i k=1 j6=i Nous en déduisons que Ei exp(− n+1 X ! Sk )|S1 = X Qi,j qi j6=i k=1 Ej (exp(− n X Sk )) Ei (exp(−S1 )) k=1 et que pour tout n, (n+1) hi = X Qi,j j6=i qi De plus, comme Z Ei (exp(−S1 )) = (n) hj Ei (exp(−S1 )). ∞ qi e−qi s e−s ds = 0 qi , 1 + qi nous en déduisons finalement que (n+1) hi = X Qi,j (n) h . 1 + qi j j6=i (3.3.66) (0) Soit (xi )i une solution positive et bornée par 1, de Qx = x. Nous avons hi = 1 ≥ xi , et grâce à la formule précédente, nous en déduisons facilement par récurrence que tout P pour (n) (n) (n+1) Qi,j i et pour tout n ∈ N, hi ≥ xi ≥ 0. En effet, si hj ≥ xj , on a hi ≥ j6=i 1+qi xj . P P Comme x est solution de Qx = x, il vérifie xi = j Qi,j xj = Qi,i xi + j6=i Qi,j xj = P P (n+1) Qi,j ≥ xi . xj = xi , et hi −qi xi + j6=i Qi,j xj , d’où j6=i 1+q i (n) Si le processus n’explose pas presque-sûrement, on a T∞ = +∞ p.s., et limn hi = 0. En faisant tendre n vers l’infini dans l’inégalité précédente, nous en déduisons que xi = 0. Ainsi, dans ce cas, la seule solution positive bornée de Qx = x est la solution nulle. Supposons maintenant que le processus explose avec probabilité strictement positive. Soit zi = Ei (e−T∞ ). Il existe i avec Pi (T∞ < +∞) > 0 et pour cet entier i, zi > 0. Un passage à P (n) la limite utilisant T∞ = limn Tn et Tn = nk=1 Sk justifie que zj = limn hj . La formule P Qi,j (3.3.66) nous permet alors de conclure que pour l’entier i tel que zi > 0, zi = j6=i 1+q zj . i Nous avons obtenu une solution z de l’équation Qz = z, positive et bornée, avec zi > 0, et exhibé ainsi une solution non triviale et bornée à l’équation. Appliquons ce résultat au processus de naissance et mort. Supposons que λi > 0 pour i ∈ N∗ , et λ0 = µ0 = 0. Soit (xi )i∈N une solution de l’équation Qx = x. Pn−1 µk+1 ···µn n Introduisons pour n ≥ 1, ∆n = xn − xn−1 , et rn = λ1n + k=1 + µλ11 ···µ . λk λk+1 ···λn ···λn 3.3. PROCESSUS DE BRANCHEMENT ET DE NAISSANCE ET MORT 159 L’équation Qx = x sera ici donnée par x0 = 0 et pour tout n ≥ 1 par λn xn+1 − (λn + µn )xn + µn xn−1 = xn . En posant fn = 1 λn et gn = µn , λn nous obtenons ∆1 = x1 ; ∆2 = x2 − x1 = ∆n+1 = ∆n gn + fn xn . Remarquons que pour tout n, ∆n ≥ 0, et donc la suite (xn )n est croissante. Si x1 = 0, la solution est clairement nulle. Sinon, nous en déduisons que ∆n+1 = n−1 X 1 xn + fk gk+1 · · · gn xk + g1 · · · gn x1 . λn k=1 Puisque (xk )k est croissante, cela entraîne que rn x1 ≤ ∆n+1 ≤ rn xn , et par itération x1 (1 + r1 + · · · rn ) ≤ xn+1 ≤ x1 n Y (1 + rk ). k=1 Nous avons donc montré que la bornitude de la suite (xn )n est équivalente à la convergence de la série de terme général rk et donc prouvé le théorème. Equations de Kolmogorov et mesure invariante Nous pouvons écrire dans ce cadre les deux équations de Kolmogorov. Equation de Kolmogorov progressive : pour tous i, j ∈ N, X dPi,j Pi,k (t) Qk,j = Pi,j+1 (t)Qj+1,j + Pi,j−1 (t)Qj−1,j + Pi,j (t)Qj,j (t) = dt k = µj+1 Pi,j+1 (t) + λj−1 Pi,j−1 (t) − (λj + µj )Pi,j (t). (3.3.67) Equation de Kolmogorov rétrograde : pour tous i, j ∈ N, X dPi,j (t) = Qi,k Pk,j (t) = Qi,i−1 Pi−1,j (t) + Qi,i+1 Pi+1,j (t) + Qi,i Pi,j (t) dt k = µi Pi−1,j (t) + λi Pi+1,j (t) − (λi + µi )Pi,j (t). (3.3.68) Définissons pour tout j ∈ N la probabilité X X pj (t) = P(X(t) = j) = P(X(t) = j| X0 = i)P(X(0) = i) = P(X(0) = i)Pi,j (t). i i Un calcul simple permet de montrer que dans ce cas, l’équation de Kolmogorov progressive (3.3.67) s’écrit 160 CHAPITRE 3. DYNAMIQUE DES POPULATIONS d pj (t) = λj−1 pj−1 (t) + µj+1 pj+1 (t) − (λj + µj ) pj (t). dt (3.3.69) Cette équation est bien connue des biologistes et décrit le comportement en loi du processus. Elle peut permettre en particulier de trouver une solution stationnaire quand il y en a P une. Cela revient à trouver une famille (πj )j de nombres compris entre 0 et 1 tels que j πj < +∞ et pour tout j, λj−1 πj−1 + µj+1 πj+1 − (λj + µj ) πj = 0. Critère d’extinction Posons ui := P(Extinction|Z0 = i), qui est la probabilité que 0 soit atteint en temps fini. Appelons comme précédemment T0 le temps d’extinction et définissons également θi = E(T0 1Extinction |Z0 = i). C’est le temps moyen pour atteindre l’extinction sur l’événement "Extinction", sachant que Z0 = i. En conditionnant par le premier saut XT1 ∈ {−1, +1}, nous obtenons les relations de récurrence suivantes. Pour tout i ≥ 1, λi ui+1 − (λi + µi )ui + µi ui−1 = 0 λi θi+1 − (λi + µi )θi + µi θi−1 = −ui (λi + µi ). (3.3.70) (3.3.71) Ces équations peuvent être facilement obtenues à partir de l’équation de Kolmogorov rétrograde (3.3.68). En effet, ui = Pi (∃t > 0, Xt = 0) = Pi (∪t {Xt = 0}) = lim Pi,0 (t), t→∞ et dPi,0 (t) = µi Pi−1,0 (t) + λi Pi+1,0 (t) − (λi + µi )Pi,0 (t). dt Résolvons (3.3.70). Nous voulons calculer la probabilité d’extinction dans le cas où tous les taux λi sont non nuls (i ≥ 1). La seule condition initiale u0 = 1 est insuffisante pour résoudre une équation du second ordre. Nous allons introduire un système auxiliaire qui nous permettra de faire un calcul analogue en supposant que pour un état I, le taux λI = 0 (I) (et λi > 0 pour i < I). Définissons alors, pour un certain niveau I, ui := Pi (T0 < TI ), où TI temps d’atteinte de I. Nous avons alors uI0 = 1 et uII = 0. Si nous posons UI := I−1 X µ1 · · · µk k=1 λ1 · · · λk , 3.3. PROCESSUS DE BRANCHEMENT ET DE NAISSANCE ET MORT 161 nous pouvons montrer en utilisant la relation de récurrence (3.3.70) que pour i ∈ {1, · · · , I− 1} (I) ui = (1 + UI ) −1 I−1 X µ1 · · · µk k=i (I) En particulier, u1 = λ1 · · · λk . UI . 1+UI Théorème 3.3.12 (i) Si (UI )I tend vers l’infini quand I → +∞, alors toutes les probabilités d’extinction sont égales à 1. Nous avons donc extinction presque-sure du processus pour toute condition initiale. (ii) Si (UI )I converge vers une limite finie U∞ , alors pour i ≥ 1, ui = (1 + U∞ ) −1 ∞ X µ1 · · · µk k=i λ1 · · · λk . Il y a une probabilité strictement positive d’avoir survie du processus. Application du Théorème 3.3.12 au processus de branchement binaire (processus de naissance et mort linéaire) : Chaque individu naît à taux λ et meurt à taux µ. Nous avons donc un processus de branchement binaire où les individus vivent durant des variables exponentielles indépendantes de paramètre λ + µ et soit engendrent 2 individus µ λ , soit meurent avec probabilité λ+µ . avec probabilité λ+µ Alors, en appliquant les résultats précédents, on voit que quand λ ≤ µ, i.e. quand le processus est sous-critique ou critique, la suite (UI )I tend vers l’infini quand I → +∞ et µ , on a extinction avec probabilité 1. Si en revanche λ > µ, la suite (UI )I converge vers λ−µ i et un calcul simple montre que ui = (µ/λ) . Application du Théorème 3.3.12 au processus de naissance et mort logistique Supposons ici que les taux de croissance et de mort valent λi = λi ; µi = µi + ci(i − 1). (3.3.72) Une explication biologique de ces hypothèses sera donnée dans la section suivante. Un calcul simple montre que dans ce cas, le processus de naissance et mort s’éteint presquesûrement. Revenons au cas général. Nous nous intéressons maintenant à l’espérance du temps d’extinction. Posons tout d’abord (I) θi := Ei (T0 , T0 < TI ), i ≤ I. 162 CHAPITRE 3. DYNAMIQUE DES POPULATIONS (I) Alors par le théorème de convergence monotone, θi converge vers θi = Ei (T0 1Extinction ) quand I tend vers +∞. Définissons pour k ≥ 1 les nombres ρk := λ1 · · · λk−1 . µ1 · · · µk Les relations de récurrence (3.3.70) et (3.3.71) conduisent alors au théorème suivant. Théorème 3.3.13P Sur l’événement {Extinction}, le temps d’extinction moyen est fini 2 si et seulement si k ρk uk < ∞. Alors θi = ui i−1 X (1 + Uk )ρk uk + (1 + Ui ) k=1 X ρk u2k , i ≥ 1. k≥i En particulier, E1 (T0 1Extinction ) = X ρk u2k . k≥1 Le corollaire suivant est immédiat quand on a extinction presque-sûre (en posant uk = 1). Corollaire 3.3.14 Quand P(Extinction) = 1, le temps d’extinction moyen est fini si et P seulement si k ρk < ∞. Alors θi = i−1 X (1 + Uk )ρk + (1 + Ui ) X ρk , i ≥ 1. k≥i k=1 En particulier, E1 (T0 ) = X ρk . k≥1 Application du théorème 3.3.13 au processus de branchement binaire : Concentronsk−1 nous sur le cas où il y a extinction presque-sûre. Dans ce cas, λ ≤ µ, et ρk = λkµk . On a alors X λ λ E1 (T0 ) = λ−1 k −1 ( )k = −λ−1 ln(1 − ) si λ < µ et E1 (T0 ) = +∞ si λ = µ. µ µ k≥1 (I) Preuve. (du Théorème 3.3.13). La relation de récurrence satisfaite par θi (I) (I) (I) (I) λi θi+1 − (λi + µi )θi + µi θi−1 = −ui (λi + µi ), (I) (I) est i ≤ I. Nous pouvons de plus observer immédiatement que θ0 = θI = 0. Après quelques calculs, Qk Pk u(I) (I) (I) Pi−1 (I) (I) µj i nous obtenons θi = (1 + Ui )θ1 σ , où σ = k j=i+1 λj . (Un produit k=1 k i=1 λi 3.3. PROCESSUS DE BRANCHEMENT ET DE NAISSANCE ET MORT 163 Pi−1 (I) Pi−1 vide est égal à 1 par convention). On en déduit alors que = k=1 ρk (Ui − k=1 σk PI−1 (I) (I) (I) (I) −1 Uk )uk , i ≥ I. De plus, comme θI = 0, θ1 = (1 + UI ) ρk (Ui − Uk )uk = k=1 PI−1 (I) 2 P . Alors, en faisant tendre I vers l’infini, on obtient θ1 = k≥1 ρk u2k . (Les k=1 ρk uk (I) deux termes peuvent être infinis). SiP on fait de même pour θi , on obtiendra de même i−1 θi = Ei (T0 1Extinction ) = (1 + UI )θ1 − k=1 ρk (Ui − Uk )uk . ∞ −Uk , on obtient En utilisant l’expression de θ1 et le fait que quand U∞ < ∞, uk = U1+U ∞ θi = ui i−1 X ρk uk (1 + Uk ) + (1 + Ui ) X k=1 ρk u2k . k≥i Cette expression est aussi valable quand les probabilités d’extinction sont égales à 1. (I) Preuve. (du Théorème 3.3.13). La relation de récurrence satisfaite par θi (I) (I) (I) (I) λi θi+1 − (λi + µi )θi + µi θi−1 = −ui (λi + µi ), est i ≤ I. Après quelques calculs, nous obtenons (I) θi = (1 + (I) Ui )θ1 i−1 X (I) σk , k=1 où (I) σk k k (I) X ui Y µj := . λi j=i+1 λj i=1 (Un produit vide est égal à 1 par convention). On en déduit alors que i−1 X (I) σk k=1 = i−1 X (I) ρk (Ui − Uk )uk , i ≥ I. k=1 (I) De plus, comme θI = 0, on obtient que (I) θ1 = (1 + UI )−1 I−1 X (I) ρk (Ui − Uk )uk = I−1 X 2 (I) ρk uk . k=1 k=1 Alors, en faisant tendre I vers l’infini, on obtient X θ1 = ρk u2k . (3.3.73) k≥1 (I) (Les deux termes peuvent être infinis). Si on fait de même pour θi , on obtiendra de même i−1 X θi = Ei (T 1Extinction ) = (1 + UI )θ1 − ρk (Ui − Uk )uk . k=1 164 CHAPITRE 3. DYNAMIQUE DES POPULATIONS Si on remplace θ1 par l’expression obtenue en (3.3.73), et en utilisant que quand U∞ < ∞, ∞ −Uk uk = U1+U , on obtient ∞ θi = ui i−1 X ρk uk (1 + Uk ) + (1 + Ui ) k=1 X ρk u2k . k≥i Cette expression est aussi valable quand les probabilités d’extinction sont égales à 1. 3.4 Approximations continues : modèles déterministes et stochastiques Nous pouvons observer que les calculs deviennent vite très compliqués pour les processus de naissance et mort que nous venons d’étudier et il peut être intéressant d’en avoir des approximations plus maniables. Quand la taille de la population initiale devient très grande, les taux de saut deviennent si grands que les temps entre les sauts sont infinitésimaux et tendent vers 0. Il est donc très difficile d’observer tous les événements de saut qui surviennent et dans la limite de très grande population, la dynamique de taille de la population va être proche d’un processus continu en temps. Dans ce paragraphe, nous allons introduire des approximations valables pour les grandes populations, soit déterministes, soit stochastiques, et retrouver ainsi des modèles classiques de dynamique des populations. Ces différentes approximations vont donner des résultats qualitativement différents pour le comportement en temps long de la population et vont ainsi nous permettre de réfléchir à la pertinence du choix d’un modèle. 3.4.1 Approximations déterministes - Equations malthusienne et logistique Supposons que le processus de naissance et mort soit paramétré par le nombre N ∈ N, au sens où N représente la taille du système qui suivant les cas, (et toutes ces interprétations sont liées entre elles de manière évidente), pourra décrire la taille de la population, l’extension du territoire ou la quantité de ressources disponibles. Nous noterons (ZtN , t ≥ 0) ce processus. Nous supposerons que N1 Z0N admet une limite quand N tend vers l’infini. N Les taux de naissance λN i et de mort µi peuvent également dépendre de N . Dans la suite de ce paragraphe, nous allons étudier le comportement asymptotique du processus de naissance et de mort (ZtN , t ≥ 0) quand N → ∞. Pour obtenir une approximation non dégénérée du processus, nous allons le renormaliser par le poids N1 et nous allons étudier le processus XtN = 1 N 1 Zt ∈ N. N N 3.4. APPROXIMATIONS CONTINUES 165 Les états pris par le processus X N sont alors de la forme i , N i ∈ N. Nous supposons dans un premier temps que 1 N Z0 = x0 , N →∞ N lim X0N = lim N →∞ (3.4.74) où la limite est une limite en loi. Une première remarque, fondamentale, est que les sauts du processus de naissance et mort ( ZtN , t ≥ 0) sont d’amplitude ±1. Ainsi, les sauts du processus ( XtN , t ≥ 0) sont d’amplitude ± N1 , et vont donc tendre vers 0 quand N → ∞. Si le processus ( XtN , t ≥ 0) converge vers un processus limite (Xt , t ≥ 0), on peut penser que le processus (Xt , t ≥ 0) sera continu en temps. Remarquons également que le processus X pourra prendre n’importe quelle valeur réelle positive. Le taux de croissance est la quantité fondamentale pour comprendre le comportement en N temps long de la population. Il est donné pour chaque i par λN i − µi . Nous allons étudier deux cas particulièrement intéressants : N 1) Le cas du processus de naissance et mort linéaire : on a λN i = λ i = λ xN et µi = µ i = µ xN , où l’on a posé x = Ni . Ainsi, pour tout x ∈ R, 1 N (λi − µN i ) = r x, N →∞, N →x N limi où r = λ − µ. (3.4.75) 2) Le cas du processus de naissance et mort logistique : on a λN i = λ i = λ xN et µN i = µi + c N i(i − 1) = µ xN + c x(N x − 1), avec c > 0. Ainsi, pour tout état x ∈ R, 1 N 2 (λi − µN i ) = rx − cx , N N →∞, N →x limi où r = λ − µ et c > 0. (3.4.76) Le processus de naissance et mort linéaire est obtenu dans un cas où l’on ne suppose pas d’interaction entre les individus, ce qui peut être considéré comme irréaliste. Le comportement limite sera malthusien (voir Equation (??)), ce que l’observation de certaines populations stables contredit souvent. Sous une hypothèse de ressource globale fixée, il y a en général compétition entre les individus (pour le partage des ressources), ce qui va accroître le taux de mort dans les grandes populations et permettre ainsi de réguler, en cas de taux de croissance positif, l’évolution exponentielle de la population. Chaque individu est en compétition avec les i − 1 autres individus de la population. La biomasse de chaque individu, qui est l’énergie qu’il peut consacrer à la compétition, est proportionnelle à ses ressources individuelles. Le processus de naissance et mort logistique prend en compte ce fait, avec une biomasse de la forme Nc . Le taux de croissance est quadratique en l’état de la population. 166 CHAPITRE 3. DYNAMIQUE DES POPULATIONS Remarquons que le choix d’un paramètre c < 0 peut aussi avoir un sens biologique : cela correspond à décrire des individus qui coopèrent : ils s’entraident pour subsister, et le terme quadratique est alors un terme qui accroît le taux de reproduction. Certains modèles plus sophistiqués décrivent des populations pour lesquels les individus coopèrent quand la taille de la population est inférieure à un certain seuil, et entrent en compétition quand la taille de la population dépasse ce seuil. Cet effet est appelé effet Allee. (cf. Kot [28]). Equation limite - Heuristique Supposons que nous sommes dans l’un des deux cas décrits ci-dessus, c’est-à-dire que 1 N (λi − µN i ) = H(x), N N →∞, N →x limi (3.4.77) avec H(x) = rx ou H(x) = r x − c x2 . Etudions l’accroissement du processus (XtN , t ≥ 0) entre les temps t et t + h. En utilisant le Théorème 3.2.23, nous obtenons que pour tous i ≥ 1 et N ∈ N, N N E(Zt+h − ZtN | ZtN = i) = ((i + 1 − i)λN i + (i − 1 − i)µi ) h + o(h) N = (λN i − µi )h + o(h). De plus, N N N N 2 2 V ar(Zt+h − ZtN | ZtN = i) = (λN i + µi )h − (λi − µi ) h + o(h). Ainsi, nous en déduisons que 1 1 N (λi − µN o(h), i )h + N N 1 N 1 = i) = (λi + µN o(h) i )h + 2 N N2 N E(Xt+h − XtN | ZtN = i) = N V ar(Xt+h − XtN | ZtN Nous allons supposer ici que les infiniment petits o(h) apparaissant dans les formules cidessus le sont uniformément en N . En fait, il est possible de le montrer mais cela nécessite des arguments qui dépassent le cadre de ce livre. Si les processus (XtN , t ≥ 0) convergent quand N tend vers l’infini, le processus limite (Xt , t ≥ 0) sera donc à trajectoires continues (car les sauts d’amplitude N1 de X N tendent vers 0) et vérifiant : pour tout h ∈ R X 0 = x0 , Z t+h E(Xt+h − Xt | Xt ) = E(H(Xs )| Xt )ds = H(Xt ) h + o(h), t V ar(Xt+h − Xt | Xt ) = o(h). 3.4. APPROXIMATIONS CONTINUES 167 Remarquons que les variances des accroissements tendent vers 0 plus vite que h et que la stochasticité disparaît donc pour le processus limite sauf si elle apparaît par la condition initiale. Supposons que x0 soit déterministe. Alors X sera le processus déterministe solution de l’équation différentielle dXt = H(Xt ) ; X0 = x0 . dt Nous obtenons ainsi que dans ce cas, la limite en "grande population" du processus X N se comporte comme l’unique solution de l’équation différentielle ẋ(t) = H(x(t)) ; x(0) = x0 . (3.4.78) La taille ZtN de la population sera alors de l’ordre de N x(t). L’étude des équilibres de cette équation est liée à la fonction H. Remarque 3.4.1 Si l’on veut une justification plus convaincante de la convergence en loi du processus X N vers la solution x de (3.4.78), nous pouvons étudier la convergence des générateurs. Le générateur de X N , dans sa version opérateur (défini par (3.2.47)) et pour toute fonction f bornée de classe C 1 s’écrit X 1 1 N N N N Q (x, y)(f (y) − f (x)) = λi f (x + ) − f (x) + µi f (x − ) − f (x) Q f (x) = N N y = N (λN 1 i − µi ) 0 f (x) + o( ), N N qui converge vers Qf (x) = H(x)f 0 (x). Nous reconnaissons le générateur d’un processus dégénéré, déterministe, solution de (3.4.78). Ce calcul donne l’intuition de ce qu’est la limite des processus X N . Pour montrer la convergence fonctionnelle des processus, il faut prouver la relative compacité des lois des X N , ce qui nécessite des arguments de tension uniforme des lois qui dépassent le cadre de ce cours. Equation malthusienne Supposons que l’hypothèse (3.4.75) est satisfaite, à savoir que H(x) = rx. Alors, la limite en "grande population" est décrite par la solution de l’équation différentielle ẋ(t) = r x(t) ; x(0) = x0 . C’est l’équation malthusienne. Il est facile de décrire le comportement en temps long de la solution x(t) en fonction du signe de r. • r > 0, taux de croissance positif : x(t) → +∞. La population explose. • r < 0, taux de croissance négatif : x(t) → 0. La population s’éteint. • r = 0 taux de croissance nul. La population est stationnaire. 168 CHAPITRE 3. DYNAMIQUE DES POPULATIONS Equation logistique Supposons maintenant que l’hypothèse (3.4.76) est satisfaite. Alors, la limite en "grande population" dans ce modèle limite avec compétition est décrite par la solution de l’équation différentielle ẋ(t) = x(t)(r − c x(t)) ; x(0) = x0 , (3.4.79) appelée l’équation logistique. Cette équation est très intéressante et célèbre en dynamique des populations (introduite par Verhulst en 1838) dans le cas où le taux de croissance r est positif mais où la compétition va entraîner une régulation de la population et l’empêcher d’exploser. Si r > 0, le terme quadratique (dû à la compétition) entraîne que la population se stabilise en temps long en une solution non triviale. En effet, il est facile de voir que l’équation a deux équilibres : 0 et rc , et que 0 est instable. Ainsi, la solution de l’équation logistique converge quand t → ∞, dès que x0 6= 0, vers la quantité rc 6= 0 appelée capacité de charge. Il est important de souligner la différence de comportement en temps long entre • ce modèle limite (grande population) et le processus stochastique en petite population, puisque nous avons vu en Section 3.2.3 que le processus de naissance et de mort logistique s’éteint presque-sûrement. • ce modèle logistique et le modèle malthusien. La conclusion est que l’utilisation d’un tel modèle déterministe n’a de sens que sous certaines hypothèses de taille de population et ne prend pas en compte les variations stochastiques dues aux petits effectifs pour certaines populations. Ainsi, en écologie, si la population passe en-dessous d’un certain effectif, le modèle déterministe perd son sens et il est pertinent de considérer le modèle stochastique. Des travaux de recherche récents cherchent à définir le seuil de taille à partir duquel le modèle déterministe n’est plus adapté. 3.4.2 Approximation stochastique - Stochasticité démographique, Equation de Feller Nous considérons toujours un modèle de processus de naissance et mort linéaire ou logistique. Nous allons maintenant supposer que les taux de naissance et de mort individuels sont de l’ordre de N . Cette hypothèse a un sens si nous considérons par exemple une population de très petits individus qui se reproduisent et meurent rapidement (des bactéries sur des éléphants). Plus précisément, nous supposons que les taux individuels de naissance et de mort sont respectivement de la forme N λ̂N i = γ i N + λi et N µ̂N i = γ iN + µi , 3.4. APPROXIMATIONS CONTINUES 169 N où λN i et µi sont choisis comme en (3.4.77). Ainsi, 1 N (λ̂i − µ̂N i ) = H(x) N →∞, N →x N 1 N limi (λ̂N i + µ̂i ) = 2γ x, 2 N N →∞, N →x limi (3.4.80) (3.4.81) où suivant les cas, H(x) = rx ou H(x) = rx − cx2 . Par rapport à l’étude précédente, le seul calcul qui change est le calcul des variances. Ici la limite des variances n’est pas nulle. Plus précisément, on obtient que V ar(Xt+h − Xt | Xt ) = 2γXt h + o(h). Rappelons que par ailleurs, E(Xt+h − Xt | Xt ) = H(Xt ) h + o(h). Nous supposons encore (3.4.74), en permettant à la limite X0 d’être éventuellement aléatoire. On peut alors montrer (mais cela dépasse mathématiquement le cadre du cours) que la suite de processus (XtN , t ≥ 0) converge vers le processus (Xt , t ≥ 0) solution de l’équation différentielle stochastique p (3.4.82) dXt = H(Xt )dt + 2γXt dBt ; X0 , avec H(x) = rx ou H(x) = rx − cx2 . Nous aurons alors • Cas linéaire : dXt = r Xt dt + p 2γXt dBt ; X0 . (3.4.83) • Cas logistique : dXt = (r − c Xt )Xt dt + p 2γXt dBt ; X0 . (3.4.84) Dans les deux cas, (Bt , t ≥ 0) désigne un mouvement brownien. L’équation différentielle stochastique (3.4.83) est appelée équation de Feller, l’équation (3.4.84) est appelée équation de Feller logistique. Nous avons ainsi, par notre étude, construit des solutions de ces équations par approximations. Nous pouvons également montrer que la solution de l’équation de Feller (3.4.83) est unique dans l’espace des processus de carré intégrable, en appliquant le Théorème 2.4.12. Pour l’équation de Feller logistique, c’est plus délicat car il y a un terme quadratique, et nous n’aborderons pas cette question ici. Remarque 3.4.2 Si l’on veut une justification plus convaincante de la convergence en loi du processus X N vers la solution X de (3.4.82), nous pouvons étudier la convergence 170 CHAPITRE 3. DYNAMIQUE DES POPULATIONS des générateurs. Le générateur de X N , dans sa version opérateur (défini par (3.2.47)) et pour toute fonction f bornée de classe C 2 s’écrit X 1 1 N N N N Q f (x) = Q (x, y)(f (y) − f (x)) = λ̂i f (x + ) − f (x) + µ̂i f (x − ) − f (x) N N y = N 1 (λN 1 i − µi ) 0 N f (x) + ), (λ̂N i + µ̂i ) + o( 2 N 2N N qui converge vers Qf (x) = H(x)f 0 (x) + γ(x)f 00 (x). Nous reconnaissons le générateur du processus (3.4.82). Ainsi, nous avons introduit et justifié différents modèles, probabilistes ou déterministes, continus en temps ou à saut, qui décrivent la dynamique de la même population dans des échelles de taille et de temps différentes. Ces modèles ont des comportements asymptotiques très différents. Si nous nous concentrons sur le modèle logistique : - Le processus de naissance et mort logistique décrit une petite population - Ce modèle décrira de petites populations qui sont soumises aux fluctuations aléatoires. Le processus va tendre vers 0 en temps long. Nous avons obtenu en ce cas le temps moyen d’extinction comme somme d’une série. - Le modèle déterministe : l’équation logistique - Celui-ci est une approximation en grande population du processus de naissance et mort. La solution de l’équation logistique converge quand le temps tend vers l’infini vers une limite non nulle, appelée capacité de charge, qui décrit l’état stationnaire de la population. Ce modèle a un sens si l’on étudie une grande population, qui bien qu’aléatoire, est approchée par cette approximation déterministe. La probabilité que le processus de naissance et mort s’éloigne de la capacité de charge est petite mais non nulle et peut être quantifiée par un théorème de grandes déviations. - L’équation différentielle stochastique de Feller logistique - A partir du même modèle microscopique que précédemment, dans une hypothèse de grande population, mais sous l’hypothèse que les taux de naissance et de mort sont très grands. Ce modèle est pertinent si l’on étudie des populations très petites et en grand nombre, qui se reproduisent et meurent très rapidement (populations d’insectes ou de bactéries par exemple). Le "bruit" créé par les sauts permanents dus aux naissances et aux morts est tellement important qu’il va subsister à la limite. C’est ce qui explique l’apparition des termes stochastiques browniens et l’apparition d’une nouvelle stochasticité démographique. Dans ce cas, on peut montrer par des arguments de calcul stochastique que le processus converge presquesûrement vers 0 et étudier la loi du temps d’atteinte de 0. 3.4.3 Les modèles proie-prédateur, systèmes de Lotka-Volterra Comme dans le cas de populations monotypes, il est possible de développer des modèles de processus de branchement ou de naissance et de mort multi-types en temps continu. 3.4. APPROXIMATIONS CONTINUES 171 Nous nous intéressons ici à un cas qui prend en compte les interactions entre les souspopulations des deux types. Nous allons définir, pour une population initiale de taille N , • ri1,N : taux de croissance de la sous-population de type 1 dans l’état i, • ri2,N : taux de croissance de la sous-population de type 2 dans l’état i, 1,1 > 0 : taux de compétition entre deux individus de type 1, • cN c1,2 • N > 0 : taux de compétition d’un individu de type 2 sur un individu de type 1, 2,1 > 0 : taux de compétition d’un individu de type 1 sur un individu de type 2, • cN c2,2 • N > 0 : taux de compétition entre deux individus de type 2. Comme dans le cas monotype, nous supposerons que pour tout état x, 1 1,N ri = r1 x ; N →∞, N →x N limi 1 2,N ri = r2 x , N →∞, N →x N limi (3.4.85) où r1 et r2 sont deux nombres réels strictement positifs, ce qui veut dire qu’en l’absence de toute compétition, les deux populations auraient tendance à se développer à vitesse exponentielle. Quand N tend vers l’infini et en adaptant les arguments de la Section 3.4.1, nous pouvons montrer que le processus de naissance et mort ( N1 ZtN , t ≥ 0) = (( N1 Zt1,N , N1 Zt2,N ), t ≥ 0), composé des deux sous-processus décrivant les tailles des sous-populations de type 1 et de type 2, renormalisées par N1 , converge vers la solution déterministe (x(t), t ≥ 0)) = ((x1 (t), x2 (t)), t ≥ 0)) du système suivant : dx1 (t) = r1 x1 (t) − c1,1 (x1 (t))2 − c1,2 x1 (t)x2 (t), dx2 (t) = r2 x2 (t) − c2,1 x1 (t)x2 (t) − c2,2 (x2 (t))2 . (3.4.86) (3.4.87) Ces systèmes ont été beaucoup étudiés par les biologistes théoriciens et par les spécialistes de systèmes dynamiques. Ils sont connus sous le nom de systèmes de Lotka-Volterra. Biensûr, on peut généraliser l’hypothèse (3.4.85) comme en Section 3.4.1 ou considérer des paramètres cij > 0 qui peuvent modéliser de la coopération et obtenir ainsi un système dynamique beaucoup plus compliqué. Il existe aussi une versionpstochastique de ce modèle où l’on peut ajouter à chaque équation un terme de la forme γi Xi (t) dBi (t), où Bi est un mouvement brownien. Un cas très célèbre de système dynamique est le modèle de proie-prédateur. Le modèle historique de prédation est dû à Volterra (1926) et de manière presque contemporaine à Lotka. Imaginons que les deux types des sous-populations sont respectivement une proie (un lapin) et un prédateur de cette proie (un renard). Faisons les hypothèses suivantes : • En l’absence de prédateurs, l’effectif de la population de proies croît exponentiellement. • En l’absence de proies, l’effectif de la population de prédateurs décroît exponentiellement. • Les taux de disparition des proies et de croissance des prédateurs sont proportionnels au nombre de rencontres entre une proie et un prédateur. 172 CHAPITRE 3. DYNAMIQUE DES POPULATIONS On a alors le modèle particulier suivant : dx1 (t) = α1 x1 (t) − β1 x1 (t)x2 (t), dx2 (t) = −α2 x2 (t) + β2 x1 (t)x2 (t), (3.4.88) (3.4.89) où les paramètres α1 , α2 , β1 et β2 sont positifs. Pour l’étude de ces modèles, nous renvoyons en particulier au livre de Jacques Istas [20]. Voir aussi Renshaw [38], Kot [28]. 3.5 Exercices Exercice 3.5.1 Un modèle épidémiologique Au temps n, une population est constituée d’individus sains en quantité Sn , et d’individus infectés en quantité In . À chaque pas de temps, indépendamment, • chaque individu sain est infecté avec probabilité τ , et avec probabilité 1−τ est remplacé par un nombre aléatoire d’individus sains, de fonction génératrice notée g ; • chaque individu infecté meurt avec probabilité a, et avec probabilité 1 − a est remplacé par un nombre aléatoire d’individus infectés, de fonction génératrice g. Le but du problème est d’étudier le comportement asymptotique de cette population et en particulier son extinction. On suppose que a, τ ∈]0, 1[ pour éviter les cas dégénérés. On note IP (i,j) la loi de la marche aléatoire (Sn , In ) quand (S0 , I0 ) = (i, j). 1. Comment interprétez-vous le fait que la fonction g soit la même dans les deux lois de reproduction ? On pose un = IP (1,0) (Sn + In = 0), vn = IP (0,1) (Sn + In = 0). 2. Justifier que pour tout i, j, n ∈ N, IP (i,j) (Sn = 0, In = 0) = uin vnj . 3. Montrer les relations suivantes : un+1 = τ vn + (1 − τ ) g(un ) vn+1 = a + (1 − a) g(vn ). En déduire les équations vérifiées par q1 et q2 , où q1 (respectivement q2 ) désigne la probabilité d’extinction d’une population issue d’un individu sain (respectivement infecté). Discuter les valeurs de q1 et q2 dans le cas où g(s) = s2 et a = 21 en fonction du paramètre τ. 4. On suppose que g est dérivable en 1. Calculer le nombre moyen (E(Sn ), E(In )) d’individus sains et infectés au temps n en fonction de (E(Sn−1 ), E(In−1 )). 3.5. EXERCICES 173 Donner la valeur propre maximale de la matrice des reproductions moyennes. Peut on déduire directement le critère d’extinction global de la population ? Dans quel cas la population moyenne d’individus sains tend vers l’infini quand n tend vers l’infini ? Dans quel cas la population moyenne d’individus infectés tend vers l’infini quand n tend vers l’infini ? Exercice 3.5.2 Nous étudions l’impact de la vaccination sur la transmission d’une maladie infectieuse dans une grande population d’individus. La propagation de cette maladie est modélisée par un processus de Bienaymé-Galton-Watson (BGW). Par unité de temps, chaque malade peut, indépendamment des autres, infecter k (k ≥ 0) individus (préalablement sains) et leur transmettre la maladie avec probabilité pk . On note IP i la loi de ce processus issu de i individus. Nous supposons maintenant que dans cette population, chaque individu sain est vacciné avec probabilité α, 0 ≤ α ≤ 1 et ne peut donc pas être contaminé. (On suppose que la taille de la population est suffisamment grande pour que seule cette probabilité importe). 1) Quelle est la probabilité pk,α (en fonction des pj , j ∈ N et de α), qu’un individu infecté transmette réellement la maladie à k individus. 2) Fixons α ∈ [0, 1]. Soit g la fonction génératrice associée à la loi (pk ), de moyenne m. Donner en fonction de g la valeur de la fonction génératrice gα associée à la loi (pk,α ). Montrer que pour s fixé, la fonction α → gα (s) est croissante. 3) En déduire le nombre moyen d’individus infectés par malade, en fonction de m. Que vaut le nombre αmin minimum qu’il faut choisir, pour assurer que la maladie soit totalement enrayée ? Commenter ce résultat. 4) On se place maintenant sous l’hypothèse que α ≥ αmin . Soit Tα le temps d’extinction de la maladie. Montrer que pour n ∈ N, la fonction α → Pi (Tα ≤ n) est une fonction croissante. Comment analysez-vous ce résultat ? 5) Supposons que le processus initial de contamination soit un processus de BGW, et que chaque individu puisse infecter 0, 1, 2 individus avec probabilités respectivement p0 , p1 , p2 . Donner une condition sur p0 et p2 pour que αmin > 0. Donner la valeur de αmin > 0 dans ce cas. Que vaut P1 (Tαmin < ∞)? 174 CHAPITRE 3. DYNAMIQUE DES POPULATIONS Exercice 3.5.3 Un modèle d’île avec immigration On s’intéresse ici à une population située sur une île. La taille de la population à l’instant n est décrite par un processus de Galton-Watson (Xn )n≥0 : X0 = 1, Xn+1 = Xn X Yn,i , i=1 où les Yn,i sont des variables aléatoires indépendantes et identiquement distribuées comme une variable aléatoire Y de variance σ 2 finie. On suppose en outre que P(Y = 1) < 1. 1) Quelles hypothèses de modélisation sont faites ici ? Quand la population survit-elle avec probabilité strictement positive ? On suppose dans le reste de l’exercice que E[Y ] = 1 et Var(Y ) = σ 2 < ∞. Rappelons alors que (cf Remarque 3.1.12 du polycopié) lim n P(Xn > 0) = n→∞ 2 . σ2 2) On veut que la population puisse survivre jusqu’à un temps n grand avec une probabilité d’au moins ε ∈ (0, 1). Quelle doit alors être la taille initiale minimale x0 de la population ? On souhaite maintenant prendre en compte des immigrations aléatoires d’un continent vers l’île. Pour ce faire, on suppose que la taille de la population est décrite par le processus (Zn )n≥0 défini par : Zn X Yn,i + In , Z0 = 1, Zn+1 = i=1 où les variables In sont indépendantes et de même loi, distribuées comme une variable aléatoire I ≥ 0 et indépendantes de tous les Yk,j , k, j ≥ 0. On suppose également que E[I] < ∞. 3) Quelles hypothèses de modélisation fait-on ici ? 4) Montrer que Zn − nE(I) est une martingale. A quoi pourrait-on s’attendre pour l’évolution de la taille de la population sur l’île ? Nous allons étudier en détail le comportement asymptotique de Zn . Pour cela, notons g la fonction génératrice de Y et f celle de I. 5) Notons hn la fonction génératrice de Zn (issu de Z0 = 1). a] Montrer que pour tout n ≥ 0 et s ∈ [0, 1] : hn+1 (s) = hn (g(s))f (s). 3.5. EXERCICES 175 En déduire que, si on note gk (s) = g ◦ g ◦ . . . ◦ g la composée kième de g, alors hn (s) = gn (s) n−1 Y f (gk (s)), k=0 avec par convention g0 (s) = s = h0 (s). b] Montrer que pour tout λ > 0, il existe une suite d’entiers (mn )n≥0 telle que P(Xmn+1 > 0) ≤ 1 − exp(−λ/n) ≤ P(Xmn > 0). Montrer alors que mn 2 = 2 . n→∞ n σ λ lim c] En déduire que P(Xn+mn = 0) n−1 Y f P(Xk+mn n−1 Y −λZn /n = 0) ≤ E e ≤ P(Xn+mn+1 = 0) f P(Xk+mn+1 = 0) . k=0 k=0 6) On admet que n−1 1 2f 0 (1) σ2λ 2f 0 (1) X −λZn /n = − 2 log 1 + . (3.5.90) lim log E e = lim − 2 n→∞ n→∞ σ k + m σ 2 n k=0 a] Préciser alors la convergence de Zn /n lorsque n tend vers l’infini. On utilisera le fait qu’une loi Gamma G de paramètres (α, θ), dont la densité est égale à xα−1 e−x/θ 1{x>0} , Γ(α)θα est caractérisée par sa transformée de Laplace E e−λG = (1 + θλ)−α = exp − α log(1 + θλ) , ∀ λ ≥ 0. b] Que pouvez-vous dire du comportement asymptotique de Zn − nE[I] ? Commenter ce résultat en liaison avec la question 4). Exercice 3.5.4 Chaîne de Bienaymé-Galton-Watson conditionnée à l’extinction. Soit (Zn ; n ≥ 0) une chaîne de Bienaymé-Galton-Watson de loi de reproduction µ = P (µ(k), k ∈ N), vérifiant µ(0) > 0 et k≥0 kµ(k) ∈ ]1, +∞[. 176 CHAPITRE 3. DYNAMIQUE DES POPULATIONS On note g la fonction génératrice de µ, E l’événement {limn→∞ Zn = 0} et (Zne ; n ≥ 0) la chaîne conditionnée à l’extinction : la loi de (Zne ; n ≥ 0) est définie par P(Z0e = z0 , . . . , Zne = zn ) = P(Z0 = z0 , . . . , Zn = zn |E) pour tout n, z0 , . . . , zn ∈ N. Partie I I.1. Que peut-on dire de la probabilité d’extinction q = P(E|Z0 = 1) ? Pour i ∈ N, exprimer P(E|Z0 = i) en fonction de q. I.2. Pour tous n, i, j, z0 , . . . , zn−1 ∈ N tels que P(Z0 = z0 , . . . , Zn−1 = zn−1 , Zn = i) > 0, montrer que P(Zn+1 = j|Z0 = z0 , . . . , Zn−1 = zn−1 , Zn = i, E) = P(E|Z0 = j)IP (Z1 = j|Z0 = i) . P(E|Z0 = i) I.3. En déduire une expression de P(Zn+1 = j|Z0 = z0 , . . . , Zn−1 = zn−1 , Zn = i, E) en fonction de i, j, q et P(Z1 = j|Z0 = i). I.4. Montrer que (Zne ; n ≥ 0) est une chaîne de Markov dont on identifiera le noyau de transition. I.5. En déduire que (Zne ; n ≥ 0) est une chaîne de Bienaymé-Galton-Watson dont la fonction génératrice g e de la loi de reproduction µe est définie par g e (s) = q −1 g(qs) pour tout s ∈ [0, 1]. Partie II On suppose désormais que µ est une loi de Poisson de paramètre θ > 1 : µ(k) = e−θ θk /k! pour tout k ∈ N. II.1. Donner la fonction génératrice g de la loi µ. Quelle est l’équation vérifiée par q = IP (E|Z0 = 1) ? II.2. Montrer que eθ−1 > θ. En déduire que q < 1/θ. II.3. Quelle est la loi de reproduction µe de la chaîne (Zne ; n ≥ 0) ? Exercice 3.5.5 Effet de la pêche sur un banc de sardines On modélise ici l’évolution du nombre de sardines présentes dans un banc par un processus (Xt , t ≥ 0). Les sardines se reproduisent et leur nombre croît au taux g > 0. A des instants (Ti : i ≥ 1) aléatoires, la pêche provoque la disparition d’une proportion de la population de sardines. On suppose que les événements de pêches se produisent sans mémoire. Ceci nous conduit à modéliser Nt := Card{i ≥ 1 : Ti ≤ t}, par un processus de Poisson d’intensité r > 0. 3.5. EXERCICES 177 De plus les pêches successives ont des effets indépendants et identiquement distribués, indépendants de (Nt : t ≥ 0). On suppose que X0 = 1. 1. Justifier que la taille de la population de sardines au temps t ≥ 0 est donnée par le processus t Xt = egt ΠN i=1 Fi où les (Fi : i ≥ 1) forment une suite de variables aléatoires indépendantes et identiquement distribuées suivant une variable aléatoire F ∈ [0, 1]. Dans la suite, on suppose que E(ln( F1 )) < ∞. On rappelle que Nt t → r p.s. quand t → ∞ (voir la Proposition 3.2.13 du cours). 2.a Montrer que ln(Xt ) t→∞ 1 −→ g − r E(ln( )) t F p.s. 2.b En déduire la limite presque-sûre de Xt , si g 6= r E(ln( F1 )). 3.a Montrer que Yt = e−gt+rt(1−E(F )) Xt est une martingale pour la filtration (Ft = σ(Xs , s ≤ t), t ≥ 0). 3.b En déduire que Yt converge p.s. vers une variable aléatoire Y∞ finie presque-sûrement. 3.c On suppose que P(F = 1) < 1. Montrer que Y∞ = 0 p.s.. 4. Question de modélisation. (On n’exigera pas d’arguments rigoureux). Une législation pour la préservation des sardines pourrait consister à fixer l’effet moyen de la pêche, c’est-à-dire fixer c = E(F ) ∈]0, 1[. Cette contrainte est-elle judicieuse pour la préservation des sardines ? Pour une valeur c fixée par la législation, existe-t-il un taux de croissance g qui assure la survie des sardines ? Exercice 3.5.6 On admet que la population des individus infectés par le virus VIH croît selon un processus de Poisson d’intensité inconnue λ. On notera Nt le nombre d’individus infectés à l’instant t. On ne prendra pas en compte les décès. Chaque individu infecté subit une période d’incubation entre le moment où il est infecté par le VIH et le moment où les symptômes du SIDA apparaissent. La durée de cette 178 CHAPITRE 3. DYNAMIQUE DES POPULATIONS période d’incubation est aléatoire. Les périodes d’incubation pour les différents individus sont indépendantes et identiquement distribuées, de loi commune la loi sur R+ de fonction de répartition connue G. On notera pour t ∈ R+ , G̃(t) = 1 − G(t). On note Nt1 le nombre d’individus qui, à l’instant t, présentent les symptômes du SIDA, et par Nt2 le nombre d’individus qui, à l’instant t, sont infectés par le VIH mais ne présentent pas encore les symptômes du SIDA. 1) Préliminaires : Soit n ∈ N∗ . On note Sn l’ensemble des permutations de {1, · · · , n}. Soit t > 0 et X1 , · · · , Xn des variables aléatoires indépendantes, de loi uniforme sur [0, t]. On appelle (Y1 , · · · , Yn ) la même suite ordonnée par ordre croissant. Montrer que le vecteur aléatoire (Y1 , · · · , Yn ) suit la loi uniforme sur l’ensemble {(y1 , · · · , yn ); y1 ≤ · · · ≤ yn ≤ t}, dont on donnera la densité. (On pourra remarquer que pour toute f continue bornée, X E(f (Y1 , · · · , Yn )) = E(f (Xσ(1) , · · · , Xσ(n) )1{Xσ(1) ≤···≤Xσ(n) } ). ) σ∈Sn 2) Soient T1 , , T2 , · · · , Tn les n premiers temps de saut du processus (Nt , t ≥ 0). Soit 0 < t1 < · · · < tn < t. Calculer P(T1 < t1 < T2 < t2 < T3 < · · · < Tn < tn |Nt = n). En déduire que la loi conditionnelle du vecteur aléatoire (T1 , · · · , Tn ) sachant Nt = n est la loi trouvée en 1). 3) Soit n ∈ N∗ et (T1 , · · · , Tn ) défini comme ci-dessus. On appelle (Z1 , · · · , Zn ) le vecteur (Tσ(1) , · · · , Tσ(n) ), où σ est une permutation aléatoire indépendante du processus (Nt ) et tirée uniformément dans Sn . Donner la loi de (Z1 , · · · , Zn ) conditionnellement à Nt = n. 4) Quelle est la probabilité qu’un individu infecté par le VIH au temps s voit les symptômes apparaître au temps t ? En déduire la probabilité pt que l’individu infecté au temps Zi soit malade au temps t, et la probabilité qt qu’il ne le soit pas. (On remarquera qu’elles ne dépendent pas de i). 5) Calculer, pour k, l ∈ N, la probabilité P(Nt1 = k ; Nt2 = l). En déduire que pour tout t > 0, Nt1 et Nt2 sont deux variables aléatoires indépendantes, qui suivent des lois de Poisson dont on donnera les paramètres. 3.5. EXERCICES 179 Exercice 3.5.7 A) Question préliminaire : Justifier que (Nt , t ≥ 0) est un processus de Poisson d’intensité µ si et seulement si c’est un processus à accroissements indépendants tel que pour tout t ≥ s ≥ 0, Nt − Ns soit une loi de Poisson de paramètre µ(t − s). B) Soit (Nt1 , t ≥ 0) et (Nt2 , t ≥ 0) deux processus de Poisson indépendants d’intensité respective λ1 et λ2 . Ces deux processus sont définis par leur suite de temps de sauts : (Tn1 )n et (Tm2 )m , par : X 1{Tj1 ≤t} ; Nt1 = j≥1 Nt2 = X 1{Tj2 ≤t} . j≥1 1) Quelle est la loi du couple de variables aléatoires (T11 , T12 ) ? 2) En déduire la valeur de P(T11 < T12 ). 3) Quelle est loi de la variable aléatoire τ = inf(T11 , T12 ). 4) Soit 0 ≤ s ≤ t. Donner la fonction génératrice de la variable aléatoire Nt1 − Ns1 . 5) On définit le processus (Nt , t ≥ 0) par Nt = Nt1 + Nt2 . Donner la fonction génératrice de la variable aléatoire Nt − Ns . En déduire que (Nt , t ≥ 0) est un processus de Poisson d’intensité λ1 + λ2 . (On pourra utiliser la question préliminaire A)). 6) On note Rk la suite des temps de saut de (Nt )t : X Nt = 1{Rj ≤t} . j≥1 On introduit également une suite (Xj )j de variables aléatoires indépendantes, de même 1 , et indépendante du processus de Poisson (Nt )t . loi de Bernoulli de paramètre λ1λ+λ 2 On définit les processus (Mt1 )t et (Mt2 )t par X Mt1 = 1{Rj ≤t} 1{Xj =1} ; j≥1 Mt2 = X 1{Rj ≤t} 1{Xj =0} j≥1 Calculer, en conditionnant par la valeur de Nt , la probabilité P(Mt1 = k1 ; Mt2 = k2 ), 180 CHAPITRE 3. DYNAMIQUE DES POPULATIONS pour k1 , k2 ∈ N. En déduire que Mt1 et Mt2 sont deux variables aléatoires de Poisson indépendantes de paramètres respectifs λ1 et λ2 . On admettra de plus que les processus (Mt1 )t et (Mt2 )t sont des processus de Poisson indépendants d’intensités respectives λ1 et λ2 . 7) On rappelle que Rn+m−1 est le (n + m − 1)-ième temps de saut du processus (Nt ). Montrer que pour tout entier k ≤ n + m − 1, on a k n+m−1−k n+m−1 λ1 λ2 1 P(MRn+m−1 = k) = . k λ1 + λ2 λ1 + λ2 8) Justifier que pour n, m ∈ N∗ , {Tn1 < Tm2 } a même probabilité que {MR1 n+m−1 ≥ n}, où Tn1 et Tm2 ont été définis au début de la question B). 9) En déduire que P(Tn1 < Tm2 ) = n+m−1 X k=n k n+m−1−k n+m−1 λ1 λ2 . k λ1 + λ2 λ1 + λ2 Exercice 3.5.8 On considère une population constituée de N individus de deux types, notés A et a. La dynamique de cette population est la suivante : chaque individu A donne naissance à un autre individu A au taux 1 et chaque individu a donne naissance à un autre individu a au taux 1 + s, où s > −1 représente l’avantage sélectif du mutant. Simultanément à chaque naissance, un individu est choisi au hasard parmi les N individus de la population, et meurt au profit du nouveau-né. Ainsi, la population reste de taille constante égale à N . On note Nt le nombre d’individus de type a présents au temps t. 1) Supposons que l’on ait k individus de type a dans la population. Quel est le taux auquel on a naissance d’un individu de type a ? Quelle est la probabilité qu’un individu de type A soit remplacé par un individu de type a ? En déduire le générateur infinitésimal du processus de Markov (Nt , t ≥ 0). Que dire des états 0 et N pour le processus (Nt , t ≥ 0) ? 2) On note TN = inf{t ≥ 0 : Nt = N } et pour k ∈ {0, . . . , N } on pose u(k) = Pk (TN < ∞) = P(TN < ∞|N0 = k). Pour k ∈ {1, . . . , N − 1} donnez une relation reliant u(k + 1), u(k) et u(k − 1). 3) En déduire une expression de u. (On pourra traiter à part le cas s = 0). 3.5. EXERCICES 181 4) Pour tout k ∈ {0, . . . , N } on note w(k) = Ek (TN 1TN <∞ ) = E(TN 1TN <∞ |N0 = k). Montrez que pour tout k ∈ {1, . . . , N − 1} on a la relation k(N − k) k(N − k) (1 + s)(w(k + 1) − w(k)) + (w(k − 1) − w(k)) = −u(k). N N 5) Dans le cas où s = 0 en déduire une expression pour E1 (TN |TN < ∞). Exercice 3.5.9 Soit (Zt , t ≥ 0) un processus de branchement binaire de taux de naissance et de mort respectivement b et d. On note r = b − d le taux de croissance, et l’on suppose que r > 0. On note IP k la loi de ce processus issu de k individus. 1) Justifier que pour tout entier k, et tout t ∈ R+ , on a Ek (Zt ) = ku(t), où u est une fonction qui ne dépend que de t. En déduire que pour tout entier k, et tout t ∈ R+ , on a Ek (Zt ) = k exp(rt), où l’indice k indique que Z0 = k. (On pourra utiliser l’équation de Kolmogorov rétrograde). 2) En utilisant la propriété de Markov, montrer que (Zt exp(−rt); t ≥ 0) est une martingale (pour la filtration engendrée par Z). 3) On désigne par Tn le premier temps d’atteinte de l’entier n par le processus (Zt , t ≥ 0). 3-a) Justifier que Tn > T0 ⇒ Tn = +∞. 3 - b) En déduire rigoureusement que ∀ n ≥ k. Ek (exp(−rTn )) = k/n 4) Soit ρ une variable aléatoire de loi exponentielle de paramètre r > 0, indépendante du processus (Zt , t ≥ 0). 4 - a) Montrer que Pk (Tn ≤ ρ) = 4 - b) Soit St := sups≤t Zs . Trouver la loi de Sρ . Que vaut E(Sρ ) ? k . n 182 CHAPITRE 3. DYNAMIQUE DES POPULATIONS Exercice 3.5.10 Soit (Xt , t ≥ 0) un processus de naissance et mort en temps continu, issu de X0 > 0 et de générateur (matrice des taux de transition) Qi,i−1 Qi,i+1 = λ i ∀i ≥ 0, = µ i(i − 1), ∀i ≥ 1. 1) 1-a) Le processus (Xt , t ≥ 0) peut-il atteindre 0 ? 1-b) Donner les probabilités de transition de la chaîne de Markov incluse. 1-c) Montrer que la chaîne de Markov incluse est irréductible sur N∗ . Est-elle irréductible sur N ? 2) Soit π = (πj , j ∈ N∗ ) est une probabilité invariante sur N∗ , c’est à dire telle que π Q = 0. 2-a) Déterminer l’équation satisfaite par cette probabilité invariante π. 2-b) Montrer que, pour chaque i ∈ N∗ , on a λi−1 πi = π1 . i! µi−1 2-c) Montrer que π1 = λ µ(eλ/µ − 1) . 3) Soit Y une variable aléatoire de Poisson de paramètre a > 0. 3-a) Calculer P(Y > 0). En déduire la valeur de P(Y = i|Y > 0) pour tout i ∈ N∗ . 3-b) Montrer que π est la loi de Poisson d’une variable aléatoire de Poisson conditionnée à rester strictement positive, dont on donnera le paramètre. Exercice 3.5.11 Soit (Yt , t ≥ 0) un processus de branchement binaire de taux de naissance b et de taux de mort d. On note IP k la loi de (Yt , t ≥ 0) issu de k individus. On suppose qu’en plus de ces k individus initiaux, à chaque temps d’un processus ponctuel de Poisson indépendant de Y et d’intensité a, un nouvel individu immigre et fonde une population indépendante dont la dynamique a la loi IP 1 . On numérote ces individus migrants suivant leur ordre d’arrivée. Soit Zt la taille totale de la population au temps t. 3.5. EXERCICES 183 1) Donner les taux de transition du processus (Zt , t ≥ 0). 2) Dans cette question, nous supposons que b < d. On s’intéresse à la recherche d’une probabilité stationnaire pour le processus (Zt , t ≥ 0), c’est-à-dire une probabilité µ = (µk )k≥0 sur N telle que pour tout i ∈ N, lim Pi (Zt = k) = µk . t→∞ 2-a) Donner les équations que doit vérifier µ = (µk ) pour être une probabilité stationnaire pour le processus (Zt , t ≥ 0). 2-b) En déduire la valeur de µk en fonction de µ0 . (On pourra utiliser qu’en particulier, dµ1 = aµ0 ). 2-c) Quelle est la seule probabilité stationnaire possible de (Zt , t ≥ 0), lorsque b = 0 ? Donner alors µ0 . 3) Dans cette question, nous supposons que b > d. 3-a) Justifiez que partant d’un individu, la probabilité de survie du processus de branchement binaire (Yt , t ≥ 0) est strictement positive. On appellera p cette probabilité. 3-b) Soit N la variable aléatoire désignant le numéro du premier migrant dont la descendance ne s’éteint pas. Quelle est la loi de N ? 3-c) Montrer que Zt tend vers l’infini quand t → ∞, avec probabilité 1. Exercice 3.5.12 Le but de l’exercice est de modéliser une dynamique de population avec immigration. Soit (Xt , t ≥ 0) un processus de naissance et de mort, à valeurs dans N, de générateur Q donné pour tout k ≥ 1 (k nombre entier), par : Qk,k+1 = λk + a, Qk,k−1 = µk, Qk,k = −(λk + µk + a), où a, λ et µ sont trois réels strictement positifs. 1) Donner la chaîne de Markov incluse. 2) Soit Pij (t) = P(Xt = i|X0 = j). Ecrire l’équation aux dérivées partielles pour P . 3) Soit Ei (Xt ) = E(Xt |X0 = i). Montrer que ∂t Ei (Xt ) = (λ − µ)E(Xt |X0 = i) + a. 184 CHAPITRE 3. DYNAMIQUE DES POPULATIONS 4) Calculer Ei (Xt ). 5) Etudier la limite, quand t → +∞, de Ei (Xt ). On pourra discuter suivant les valeurs respectives de λ et µ. 6) Soit π = (πj , j ∈ N∗ ) une probabilité sur N telle que πQ = 0. On suppose que λ < µ. Montrer que pour tout k ≥ 1 a πk = λ k +k−1 λ π0 . k µ 7) Montrer que − a λ λ π0 = 1 − . µ On pourra utiliser la formule suivante : pour tout x ∈ [0, 1[, pour tout N ∈ R+ , ∞ X 1 N +k−1 k = x . (1 − x)N k k=0 8) En déduire π. Exercice 3.5.13 Processus de naissance et mort binaire et diffusion de Feller. Le but de ce problème est le suivant. Dans une première partie, nous étudierons les processus de naissance et mort binaires. Nous caractériserons la loi de leurs marginales fini-dimensionelles, ce qui permettra par exemple d’obtenir la probabilité d’extinction de ces processus. Dans une deuxième partie nous nous intéresserons aux limites en grande en population que sont les diffusions de Feller. Le calcul stochastique permettra d’obtenir une expression de la transformée de Laplace des lois fini-dimensionnelles associées. Nous pourrons en particulier préciser dans la dernière question le lien entre processus de naissance et mort et diffusion de Feller. Seule cette dernière question utilise la première partie. La dernière partie utilise la deuxième partie : on y étudiera un ensemble de populations dont chacune se divise en deux dès qu’elle atteint une certaine taille à cause de la limitation des ressources disponibles. On cherchera à savoir sous quelles conditions ces populations survivent. Partie I : Processus de naissance et mort binaire. 3.5. EXERCICES 185 On considère un processus de naissance et mort (Xt : t ≥ 0) où chaque individu donne indépendamment naissance au taux b et meurt au taux d, avec b 6= d. I.0. Dans une population modélisée ainsi, quelle est la loi du temps de vie d’un individu donné ? A quelle(s) hypothèse(s) biologique(s) ces caractéristiques mathématiques correspondentelles ? Quelle est la loi du nombre de fois où un individu se reproduira au cours de son existence ? I.1. Quel est le générateur du processus (Xt : t ≥ 0) ? I.2. On note uλ (t, x) = E(exp(−λXt ) | X0 = x) pour λ ≥ 0 et x ∈ N. a) Montrer que pour tout t ≥ 0 et x ∈ N, uλ (t, x) = uλ (t, 1)x . b) Montrer que uλ vérifie pour tout t ≥ 0 ∂ uλ (t, 1) = (uλ (t, 1) − 1)(buλ (t, 1) − d), ∂t uλ (0, 1) = exp(−λ). Cette équation se résout par séparation des variables et on admet que uλ (t, 1) = 1 − (b − d) . b − [b − d exp(λ)][1 − exp(λ)]−1 exp(−(b − d)t) I.3. Montrer que IP 1 (Xt = 0) peut s’obtenir à partir de la fonction λ → uλ (t, 1). En déduire que pour tout t ≥ 0, IP 1 (Xt > 0) = (b − d) b − d exp(−(b − d)t) Remarque : On trouve ici la vitesse d’extinction du processus de naissance et mort binaire. C’est le résultat de la page 121 du polycopié. Partie II : Diffusion de Feller et comportement asymptotique. On appelle diffusion de Feller (Yt : t ≥ 0) de paramètre σ > 0 le processus qui vérifie l’équation différentielle stochastique : Z t Z t p Yt = y 0 + Ys ds + σ 2 Ys dBs , 0 0 avec y0 ≥ 0. On admet ici la formule d’Itô à deux variables pour un processus Z vérifiant Z t Z t Zt = z0 + h(Zs ) ds + g(s, Zs ) dBs 0 0 186 CHAPITRE 3. DYNAMIQUE DES POPULATIONS et une fonction f (s, y) → R de classe C 1,2 (R+ × R+ ) : Z t ∂f ∂f 1 ∂ 2f 2 (s, Zs ) + (s, Zs )h(Zs ) + f (t, Zt ) = f (0, z0 ) + (s, Zs )g(s, Zs ) ds ∂s ∂y 2 ∂y 2 0 Z t ∂f + (s, Zs )g(s, Zs ) dBs . 0 ∂y II.1. Montrer que Ȳt = Yt e−t vérifie l’équation différentielle stochastique Z t p e−s/2 σ 2 Ȳs dBs . Ȳt = y0 + 0 II.2. Soit t0 ≥ 0. On pose pour t ∈ [0, t0 ], et λ, y ≥ 0, λy vλ (t, y) := exp − 2 σ λ[exp(−t) − exp(−t0 )] + 1 et on vérifie facilement que cette fonction satisfait pour tous s, y ≥ 0, ∂ 2 vλ ∂vλ (s, y) + (s, y) σ 2 ye−s = 0. ∂s ∂y 2 a) Montrer que (vλ (t, Ȳt ) : 0 ≤ t ≤ t0 ) satisfait l’équation différentielle stochastique Z t p vλ (s, Ȳs ) vλ (t, Ȳt ) = vλ (0, y0 ) − λ 2 e−s/2 σ, 2 Ȳs dBs . σ λ[exp(−s) − exp(−t0 )] + 1 0 On admettra alors que (vλ (t, Ȳt ) : 0 ≤ t ≤ t0 ) est une martingale par rapport à la filtration brownienne. b) En déduire la valeur de Ey0 vλ (t0 , Ȳt0 ) puis que y0 Ey0 (exp(−λYt )) = exp − 2 . σ [1 − exp(−t)] + (λ exp(t))−1 c) Justifier sommairement que la loi de Yt partant de y0 + y00 est la même que celle de Yt1 + Yt2 , où Y 1 et Y 2 sont deux diffusions de Feller indépendantes de même loi que Y issues respectivement de y0 et y00 . II.3. Montrer que IP y0 (Yt > 0) = 1 − exp − y0 2 σ [1 − exp(−t)] puis que IP y0 (∀t ≥ 0 : Yt > 0) = 1 − exp(−y0 /σ 2 ). , 3.5. EXERCICES 187 II.4. On considère pour N ≥ 1 le processus de naissance et mort binaire (XtN : t ≥ 0) avec un taux de naissance bN = b + σ 2 N et un taux de mort dN = b − 1 + σ 2 N où b > 1. a) A votre avis, que modélisent des taux de naissance et de mort de cette forme ? Quel est le taux de croissance moyen de la population ? (N ) b) Vérifier que uλ (t) = E1 (exp(−λXtN )) satisfait (N ) 1 − uλ/N (t) ∼ 1 λ 2 N λσ + [1 − λσ 2 ] exp(−t) lorsque N → ∞. c) En déduire que pour tout t, λ ≥ 0, N →∞ E(exp(−λXtN /N ) | X0 = N ) −→ E1 (exp(−λYt )). d) Expliquer comment simuler une diffusion de Feller de paramètre σ à partir de variables aléatoires exponentielles de paramètre 1 indépendantes. Partie III : Diffusion de Feller branchante Une population d’insectes se développe avec des naissances et des morts rapides. On modélise sa taille Yt au temps t par la diffusion de Feller de paramètre σ > 0 définie dans la partie II. On suppose que la taille initiale de la population est Y0 = 1 p.s. III.1 On note Tx = inf{t ≥ 0 : Yt = x} pour x ≥ 0. a) Montrer que α = sup{IP x (Y1 > 0) : x ∈ [0, 2]} < 1 et que pour tout n ∈ N, P1 (Yn+1 > 0, Yn < 2, Yn−1 < 2, ....Y1 < 2) ≤ αn+1 . En déduire que P1 (T0 = ∞, T2 = ∞) = 0. b) Montrer en utilisant la partie précédente que IP 1 (T2 < T0 ) ≥ 1 − exp(− 1 ) > 0. σ2 Si la population d’insecte atteint la taille 2, elle se divise en deux sous-populations de taille 1 à cause de contraintes de ressources. Les deux populations évoluent alors indépendamment suivant des diffusions de Feller de paramètre σ issues de 1. Celles-ci, de manière similaire, s’éteignent ou atteignent le niveau 2 et se séparent de nouveau en deux sous-populations de taille 1, etc. III.2 On considère le processus de Galton-Watson Zn où chaque individu meurt avec probabilité 1 − p et a deux enfants avec probabilité p, où p = IP 1 (T2 < T0 ). Justifier que la probabilité que le nombre de sous-populations d’insectes en vie atteigne 188 CHAPITRE 3. DYNAMIQUE DES POPULATIONS zéro en temps fini est la probabilité d’extinction du processus Zn . III.3 Quelle est la probabilité que la taille totale de la population d’insectes (obtenue en sommant sur les tailles de chaque sous-population) tende vers l’infini en temps infini ? Que dire alors du comportement asymptotique du nombre de populations en vie ? Exercice 3.5.14 Comportement quasi-stationnaire de certains processus Le but de ce problème est de comprendre le comportement en temps long de certains processus markoviens. Par exemple, il a été vu en cours qu’un processus de GaltonWatson sous-critique s’éteint en temps fini avec probabilité 1, mais que le conditionner à survivre pendant un long temps permet d’obtenir une distribution quasi-stationnaire décrivant son état avant l’extinction. Nous allons généraliser ce résultat aux processus de sauts markoviens à espace d’états fini. On s’intéresse donc ici à un processus markovien (Zt )t≥0 prenant ses valeurs dans l’espace {0, 1, . . . , N } (où N ≥ 1 est un entier fixé) et dont le seul état absorbant est 0. On suppose que le temps d’atteinte T0 de 0 est fini avec probabilité 1. Pour simplifier les notations, si u est une distribution sur {1, . . . , N } on notera Pu la mesure de probabilité donnée par Pu [Zt = j] = N X u(i) Pi [Zt = j], ∀t ≥ 0, j ∈ {0, . . . , N }, i=1 sous laquelle la valeur initiale Z0 a pour loi u. 1) Donner un exemple de situation biologique dans laquelle il semble pertinent de représenter la population par un processus de Markov à espace d’états fini et absorbé en 0. 2) On rappelle qu’une distribution α est dite quasi-stationnaire pour Z si pour tout t ≥ 0 et tout j ∈ {1, . . . , N }, N X α(i) Pi [Zt = j | Zt > 0] = α(j). i=1 a] Supposons que Z admette une distribution quasi-stationnaire α. Montrer que pour tous s, t ≥ 0 et j ∈ {1, . . . , N }, on a Pα [T0 > t + s, Zt = j] = Pα [T0 > t + s | Zt = j] Pα [Zt = j | T0 > t] Pα [T0 > t]. En déduire que Pα [T0 > t + s] = Pα [T0 > t] Pα [T0 > s]. 3.5. EXERCICES 189 b] En déduire que si Z0 a pour loi α, alors le temps d’extinction de Z suit une loi exponentielle dont on notera θ(α) le paramètre. Dans toute la suite, on note P̄t la matrice de coefficients P̄t (i, j) = Pi [Xt = j] pour tous i, j ∈ {1, . . . , N } (on remarquera que la matrice P̄t de taille N × N est obtenue à partir de Pt en oubliant l’état 0). On suppose que P̄1 a toutes ses entrées strictement positives et que Pi [Z1 = 0] > 0 pour tout i. 3) a] Justifier que pour tout i ∈ {1, . . . , N }, N X P̄1 (i, j) < 1. j=1 b] Rappeler quel résultat du cours assure qu’il existe • une unique valeur propre réelle λ0 > 0, supérieure en module à toutes les autres (réelles ou complexes), P u = 1, • un unique vecteur propre à gauche u tel que ui > 0 pour tout i et N PNi=1 i • un unique vecteur propre à droite v tel que vi > 0 pour tout i et i=1 ui vi = 1 satisfaisant N X ui P̄1 (j, i) = λ0 uj ∀j ∈ {1, . . . , N }, et i=1 N X P̄1 (i, j)vj = λ0 vi ∀i ∈ {1, . . . , N }. j=1 0 c] Justifier que λ0 < 1. Il peut donc s’écrire λ0 = e−θ , pour un réel θ0 > 0. On admettra que pour tout t ≥ 0, on peut écrire P̄t sous la forme 0 P̄t = e−θ t A + O(e−χt ), (3.5.91) où A est la matrice de coefficients A(i, j) = vi uj , χ > θ0 et O(e−χt ) est une matrice dont les entrées ne dépassent pas Ce−χt pour une constante C donnée. Nous allons utiliser ce résultat pour obtenir le comportement avant extinction de Z. 4) a] Soit i ∈ {1, . . . , N }. En utilisant (3.5.91), donner un équivalent de Pi [T0 > t] lorsque t → ∞. (Indication : quelles sont les valeurs que peut prendre Zt lorsque T0 > t ?) b] En déduire que pour tous i, j ∈ {1, . . . , N }, lim Pi [Zt = j | T0 > t] = uj . t→∞ 5) Nous allons montrer dans cette question que u = (u1 , . . . , uN ) est aussi une distribution quasi-stationnaire pour Z. 190 CHAPITRE 3. DYNAMIQUE DES POPULATIONS a] Montrer que pour tous s, t ≥ 0 et tout j 6= 0, on a Pu [Zt+s = j | T0 > t + s] = N X Pu [Zt = i | T0 > t] Pi [Zs = j] i=1 Pu [T0 > t] . Pu [T0 > t + s] (3.5.92) b] Montrer en découpant selon les valeurs possibles de Zt que lim Pu [T0 > t + s | T0 > t] = Pu [T0 > s]. t→∞ c] En faisant tendre t vers l’infini dans (3.5.92), montrer que u est bien une distribution quasi-stationnaire pour Z. d] En se rappelant la notation de la question 2b], donner une expression de θ(u). Chapitre 4 Génétique des populations Ceux que nous appelions des brutes eurent leur revanche quand Darwin nous prouva qu’ils étaient nos cousins. George Bernard Shaw (1856 - 1950). 4.1 Quelques termes de vocabulaire • Une cellule biologique est dite haploïde lorsque les chromosomes qu’elle contient sont en un seul exemplaire. Le concept est généralement opposé à diploïde, terme désignant les cellules avec des chromosomes en double exemplaire. Chez les humains et la plupart des animaux, la reproduction génétique met en jeu une succession de phases diploïdes (phases dominantes) et haploïdes (phases de formation des gamètes). • Un gamète est une cellule reproductrice de type haploïde qui a terminé la méiose. • Un locus, en génétique, est un emplacement précis sur le chromosome. Il peut contenir un gène. • Les allèles sont des versions différentes de l’information génétique codée sur un locus. Par exemple, les types "ridés" et "lisses" des pois, dans les expériences de Mendel, correspondent à des allèles distincts. Dans le cas du gène déterminant le groupe sanguin, situé sur le chromosome 9 humain, l’un des allèles code le groupe A, un autre pour le groupe B, et un troisième allèle détermine le groupe O. • L’avantage sélectif ou fitness d’un allèle est une mesure qui caractérise son aptitude à se transmettre, et qui dépend ainsi de l’aptitude qu’il confère à son porteur à se reproduire, survivre... 4.2 Introduction Nous nous intéressons ici à la reproduction des individus et principalement à la transmission de leurs allèles. Dans une population haploïde, la proportion des individus portant un allèle donné four191 192 CHAPITRE 4. GÉNÉTIQUE DES POPULATIONS nit directement la fréquence de cet allèle dans la population. Mais dans les populations diploïdes, les gènes sont associés par paires dans les individus. Il est alors nécessaire de distinguer 2 types de fréquences pour décrire la composition génétique de la population à un locus considéré : les fréquences génotypiques qui sont les fréquences des différents génotypes à un locus considéré et les fréquences alléliques qui sont les fréquences des différents allèles au locus considéré. En général, les fréquences génotypiques ne peuvent pas se déduire des fréquences alléliques sauf dans les hypothèses simplificatrices du modèle idéal de Hardy-Weinberg que nous allons développer ci-dessous. Supposons par exemple que l’on a deux allèles A et a. Une population avec 50% de gènes A et 50% de gènes a peut-être constituée uniquement d’homozygotes AA et aa, ou uniquement d’hétérozygotes Aa, ou de divers proportions entre ces 3 génotypes. 4.2.1 Un modèle idéalisé de population infinie : le modèle de Hardy-Weinberg Le premier modèle publié concernant la structure génotypique d’une population l’a été simultanément par Hardy et par Weinberg en 1908. Dans ce modèle sont faites des hypothèses très fortes qui permettent de simplifier beaucoup les calculs mais qui ne permettent pas d’intégrer les idées darwiniennes d’adaptation et d’évolution. Ces hypothèses sont les suivantes. • Les gamètes s’associent au hasard indépendamment des gènes considérés (hypothèse de panmixie). Cette hypothèse revient à dire que l’on considère un réservoir infini de gamètes qui sont appariés au hasard, sans tenir compte du sexe de l’individu. • La population a une taille infinie. Par la loi des grands nombres, on remplace la fréquence de chaque allèle par sa probabilité. • La fréquence des gènes n’est pas modifiée d’une génération à la suivante par mutation, sélection , migration. Sous ces hypothèses, supposons qu’en un locus, les probabilités des allèles A et a soient p et q = 1−p. Alors, à la deuxième génération, après appariement d’un gamète mâle et d’un gamète femelle, on a le génotype AA avec probabilité p2 , le génotype aa avec probabilité q 2 et le génotype Aa avec probabilité 2pq. Cette structure génotypique est connue sous le nom de structure de Hardy-Weinberg. Mais alors, puisque chaque individu a deux copies de chaque gène, la probabilité d’apparition de l’allèle A dans la population, à la deuxième 2 = p2 + pq = p. De même, la fréquence de l’allèle a sera q. génération sera 2p +2pq 2 Ainsi, étant donné les hypothèses faites, on peut énoncer la loi de Hardy-Weinberg : Dans une population isolée d’effectif illimité, non soumise à la sélection et dans laquelle il n’y a pas de mutation, les fréquences alléliques restent constantes. Si les accouplements sont panmictiques, les fréquences génotypiques se déduisent directement des fréquences alléliques et restent donc constantes, et égales à p2 , 2pq, q 2 . Il suffit donc de connaître à chaque génération les probabilités de réalisation de l’allèle A et de celle de l’allèle a, et du fait des hypothèses de population d’individus infinie et de nombre de gamètes infini, le modèle ne présente pas de variation aléatoire. Il se réduit à 4.3. POPULATION FINIE : LE MODÈLE DE WRIGHT-FISHER 193 un calcul de probabilité sur les fréquences alléliques, et l’on peut se ramener à un modèle haploïde. 4.3 4.3.1 Population finie : le modèle de Wright-Fisher Modèle de Wright-Fisher Alors que dans la population de taille infinie les fréquences alléliques sont stables au cours des générations en l’absence de sélection et de mutation (loi des grands nombres), les fréquences alléliques varient aléatoirement dans des populations de taille finie. (Cela est dû à la variabilité dans la distribution des gènes d’une génération à l’autre). Pour permettre un traitement mathématique pas trop compliqué, le modèle de Wright-Fisher modélise la transmission des gènes d’une génération à l’autre de manière très schématique. Il fait l’hypothèse de générations séparées, ce qui est une simplification considérable du cycle de reproduction. Ici, une population de M individus est représentée par un vecteur de N = 2M allèles. On notera par n ∈ N les indices de générations. Dans le modèle de Wright-Fisher, le parent de chaque individu de la génération n + 1 est distribué uniformément dans la nième génération. On suppose également que la population d’individus est de taille finie et constante M (On cultive des petits pois et à chaque génération on en garde M ). Chaque individu est caractérisé par deux types (ou allèles) A et a qu’il transmet par hérédité. On a donc N = 2M allèles. Le modèle de Wright-Fisher est un modèle neutre. Cela veut dire qu’il n’y a pas d’avantage sélectif associé à l’un des deux types (qui favoriserait la reproduction d’un des allèles). Il n’y a pas de mutation (modèle simpliste dans la pratique mais très intéressant dans une première approximation). Nous voulons étudier la fréquence allélique des deux allèles A et a à un locus donné, au fil des générations. Supposons que l’on connaisse les fréquences alléliques à une certaine génération n. Quelles vont-elles être à la génération n + 1 suivante ? On suppose que les individus peuvent se reproduire de manière indépendante les uns des autres et que la nouvelle génération est formée de N gènes choisis uniformément dans un réservoir infini de gamètes (il existe des milliers de gamètes), et dans laquelle la répartition allélique est celle de la génération n. Ainsi, le modèle consiste à choisir M individus, (et donc N = 2M allèles) à la génération n + 1 et à étudier la distribution du nombre d’allèles A parmi ces N allèles. Cette distribution devrait suivre une loi hypergéométrique. Mais l’hypothèse d’un réservoir infini de gamètes permet d’approcher cette loi hypergéométrique (tirage simultané) par une loi binomiale qui ne prend plus en compte le nombre d’individus mais seulement les proportions des deux allèles dans l’urne et qui correspond à un tirage avec remise. (Voir l’étude des modèles d’urnes, Méléard [30] Paragraphe 2.2.3). Du fait de la neutralité du modèle, tous les individus sont échangeables, et seule la répartition des allèles a une importance. Définissons la quantité XnN = nombre d’allèles de type A à la génération n. 194 CHAPITRE 4. GÉNÉTIQUE DES POPULATIONS On a le résultat suivant. Proposition 4.3.1 Pour tout n ∈ N, pour tous i et j dans {0, . . . , N }, j N −j N i i N N P(Xn+1 = j|Xn = i) = 1− . j N N (4.3.1) Preuve. Par définition, pour tout n ∈ N, la variable XnN prend ses valeurs dans {0, . . . , N }. N N Il est clair que P(Xn+1 = 0|XnN = 0) = 1, par définition et de même, P(Xn+1 = N |XnN = N ) = 1. Plus généralement, soit i ∈ {1, . . . , N − 1}. Conditionnellement au fait que XnN = i, la fréquence de l’allèle A à la génération n est Ni et celle de l’allèle a est N −i = 1 − Ni . Ainsi, à la génération suivante, chaque individu tire son parent au hasard, N sans se préoccuper des autres individus. Cela correspond donc à un tirage avec remise et le nombre d’individus d’allèle A à la (n + 1)-ième génération, sachant que XnN = i, suit alors une loi binomiale B(N, Ni ). Ainsi, N P(Xn+1 = j|XnN N −j j i N i 1− . = i) = N N j Remarque 4.3.2 Dans les modèles non neutres que nous verrons dans la suite (avec mutation, ou sélection), les individus ne seront plus échangeables, et la probabilité de "tirer" un individu d’allèle A connaissant XnN = i ne sera plus uniforme. Remarque 4.3.3 D’après la proposition 4.3.1, si on note pi = i , N on aura que N N E(Xn+1 |XnN = i) = N pi = i et donc E(Xn+1 − XnN |XnN = i) = 0 N N V ar(Xn+1 |XnN = i) = V ar(Xn+1 − XnN |XnN = i) = N pi (1 − pi ) = i(1 − i ). N (4.3.2) Nous nous intéressons à la transmission de l’allèle A. Les questions importantes sont les suivantes : l’allèle A va-t-il envahir toute la population ? Ou l’allèle a ? En combien de temps ? Aura-t-on co-existence des deux allèles ? Théorème 4.3.4 La suite (XnN )n∈N est une chaîne de Markov à espace d’états fini et est une martingale bornée. La matrice de transition P de la chaîne est donnée pour tous i et j dans {0, . . . , N } par j N −j N i i 1− . (4.3.3) Pi,j = N N j Les états 0 et N sont deux états absorbants pour la chaîne. 4.3. POPULATION FINIE : LE MODÈLE DE WRIGHT-FISHER 195 Preuve. 1) Par définition, le processus (XnN , n ≥ 0) prend ses valeurs dans l’ensemble fini {0, . . . , N }. Il est évident que ce processus définit une chaîne de Markov puisque la loi de N Xn+1 conditionnellement au passé jusqu’au temps n, ne dépend que de XnN . La forme de la matrice de transition a été calculée à la Proposition 4.3.1. De plus, en reprenant les calculs de la Remarque 4.3.3 et si F n désigne la filtration engendrée par X0N , . . . , XnN , on a N |F n ) E(Xn+1 = N X N = j|F n ) j P(Xn+1 j=0 = N X j N P(Xn+1 = j=0 = N j|XnN ) N j N −j N X N Xn XnN = j 1− j N N j=0 XnN = XnN . N Ainsi, le processus (XnN )n est une martingale, bornée par N . 2) Il est évident que les états 0 et N sont absorbants. (voir (4.3.1)). Remarque 4.3.5 Le processus (XnN )n est une martingale et donc, dans ce modèle neutre, la taille de la population d’allèle A est constante en moyenne : il n’y a pas d’avantage sélectif pour un allèle. Nous verrons au Paragraphe 4.3.3 comment la sélection influe sur cette dynamique. Nous allons étudier comment les allèles se fixent dans la population d’individus de taille N , en temps long. Nous allons donc faire tendre n vers l’infini. Théorème 4.3.6 Quand le nombre de générations n tend vers l’infini, la suite de vaN riables aléatoires (XnN )n converge presque-sûrement vers une variable aléatoire X∞ et N X∞ ∈ {0, N }. (4.3.4) De plus, N Pi (X∞ = N) = i 1 N = E(X∞ | X0N = i). N N (4.3.5) N Remarquons que Pi (X∞ = N ) est la probabilité de fixation de l’allèle A dans la population N et que Pi (X∞ = 0) est sa probabilité de disparition et de fixation de l’allèle a. Preuve. Puisque (XnN )n est une martingale bornée, elle converge presque-sûrement quand N n → ∞ vers une variable aléatoire X∞ . Le processus (XnN )n est une chaîne de Markov 196 CHAPITRE 4. GÉNÉTIQUE DES POPULATIONS d’espace d’états fini. On sait qu’alors les deux points absorbants sont des états récurrents positifs. Tous les autres états sont transients. En effet, si i ∈ {1, . . . , N − 1}, pi0 = P(X1N = 0|X0N = i) = (1 − i N ) >0 N d’après (4.3.1), donc i mène à 0 mais 0 ne mène pas à i puisque 0 est absorbant. On a donc deux classes de récurrence {0} et {N } et une classe transiente {1, · · · , N − 1} dont N prend ses valeurs la chaîne sort presque-sûrement à partir d’un certain rang. Ainsi, X∞ dans {0, N }. Introduisons le temps de fixation τ = inf{n ≥ 0 ; XnN = 0 ou XnN = N } = T0 ∧ TN , (4.3.6) si Tm = inf{n, XnN = m}. Le temps d’arrêt τ est donc fini presque-sûrement. Notons Pi la loi de la chaîne issue de i. Comme (XnN )n est une martingale bornée, le théorème d’arrêt s’applique (voir Théorème 2.3.18) et donc Ei (XτN ) = Ei (X0N ) = i. Cela entraîne en particulier que N Pi (X∞ = N) = i . N Pour avoir une idée du temps qu’il faut pour avoir fixation, étudions la probabilité que deux copies d’un même locus choisies au hasard (sans remise) portent des allèles différents (hétérozygotie). Soit h(n) cette probabilité, dans le cas où ces copies sont choisies dans la n-ième génération. Calculons tout d’abord la probabilité d’avoir l’hétérozygotie, conditionnellement à la connaissance de XnN = i. On a alors i N −i 2i(N − i) 1 1 = Hn = . N N (N − 1) 2 Plus généralement, Hn est la variable aléatoire N −X N ) XN n Hn = 1 n 1 N = 2 2XnN (N − XnN ) . N (N − 1) Nous pouvons alors montrer que Proposition 4.3.7 h(n) = E(Hn ) = 1 1− N n E(H0 ). (4.3.7) 4.3. POPULATION FINIE : LE MODÈLE DE WRIGHT-FISHER 197 Cette proposition nous donne la vitesse de décroissance (exponentielle) de l’hétérozygotie en fonction du temps. Preuve. Grâce à (4.3.2), il est facile de montrer que 1 2 N 1− (N i − i2 ), E(Hn+1 | Xn = i) = N (N − 1) N et nous en déduisons le résultat. Remarquons que si l’on part avec une seule copie d’allèle A, alors X0N = 1, et H0 = N2 . Ainsi, h(0) = N2 , et dans ce cas, grâce à (4.3.7), la probabilité qu’à la génération n, deux 2 1 n copies choisies au hasard aient deux allèles différents vaut N 1 − N . Remarque 4.3.8 Comme nous venons de le voir, la preuve de la Proposition 4.3.7 découle d’un calcul très simple. Néanmoins nous allons proposer maintenant une autre preuve, associant à cette étude de la population dans le sens direct du temps une approche duale, liée à la généalogie des individus. Cette approche a été développée par Durrett [12] et sa compréhension nous sera utile dans le Paragraphe 4.5.1. Nous appelons individus les N copies du locus considéré et nous allons étudié leur généalogie en remontant le temps. En effet, deux individus au temps n seront hétérozygotes s’ils n’ont pas eu d’ancêtre commun et si au temps 0, leurs parents étaient également hétérozygotes. Choisissons qu’au temps n deux allèles numérotés x1 (0) et x2 (0) distincts. Les individus i = 1, 2 sont chacun descendants d’individus de marques xi (1) au temps n − 1, qui sont eux-mêmes descendants d’individus de marques xi (2) au temps n − 2.... Ainsi la suite xi (m), 0 ≤ m ≤ n décrit la généalogie de xi (0), c’est-à-dire la suite de ses ancêtres si le sens du temps est inversé. Voir Figure 4.1. x 1 (1) x 2 (0) x 2 (n) x 1 (n) x 2 (1) 0 1 nï1 x 1 (0) n Figure 4.1 – Remarquons que si x1 (m) = x2 (m), les deux individus ont eu le même ancêtre m générations plus tôt et x1 (l) = x2 (l) pour m ≤ l ≤ n. Si x1 (m) 6= x2 (m), puisque les choix 198 CHAPITRE 4. GÉNÉTIQUE DES POPULATIONS des deux parents des individus sont faits indépendamment l’un de l’autre, la probabilité que ces individus aient le même ancêtre commun à la (m + 1)-ième génération est N1 et x1 (m + 1) 6= x2 (m + 1) avec probabilité 1 − N1 . Une preuve par récurrence entraîne alors 1 n que la probabilité d’avoir x1 (n) 6= x2 (n) est égale à 1 − N . Dans ce cas, les deux lignées sont disjointes jusqu’à cette génération passée n. Conditionellement à cet événement, les deux allèles x1 (n) et x2 (n) sont donc choisis au hasard dans la population au temps réel 0 et la probabilité qu’ils soient différents est la fréquence H0 d’espérance h(0), ce qui conclut la preuve. Il n’y a pas de formule exacte pour le temps moyen de fixation, mais nous allons pouvoir en donner une approximation quand la taille N de la population tend vers l’infini. Proposition 4.3.9 Si N tend vers l’infini et si la fréquence initiale Ni de l’allèle A vaut x0 ∈]0, 1[, le temps moyen de fixation se comporte approximativement comme Ei (TN ∧ T0 ) ∼N →∞ −N (x0 ln x0 + (1 − x0 ) ln(1 − x0 )). Preuve. Supposons que N est grand et que la fréquence initiale de l’allèle A vaut Ni = x0 . Nous supposons qu’il existe une fonction T définie sur [0, 1], trois fois différentiable et de dérivée 3ème bornée par C, telle que T Nk = Ek (TN ∧ T0 ) pour tout k ∈ {0, · · · , N }. Rappelons que si le nombre d’individus d’allèle A est i, alors ce nombre à la génération XN XN suivante suit une loi binomiale B(N, Ni ), d’où E( N1 − x0 ) = 0 et V ar( N1 − x0 ) = 1 x (1 − x0 ). Nous utilisons un conditionnement par rapport au premier saut de la chaîne N 0 X N et un développement limité autour du point x0 = Ni . Ei (TN ∧ T0 ) = lim N →∞ N X N X Ei (TN ∧ T0 | X1N = k) P(X1N = k) k=0 k = = k) T +1 N k=0 N k − i i 1 X i i k − i 2 N = P(X1 = k) T +E T0 + T 00 E N N N 2 N N k=0 i 1 k − i k − i 3 + T (3) +θ E + 1, θ ∈]0, 1[, 6 N N N i 1 1 X N − i X1N − i 3 = T (x0 ) + x0 (1 − x0 ) T 00 (x0 ) + 1 + E T (3) +θ 1 + 1, 2N 6 N N N N N 2 X −i X1 −i car E 1N = 0 et E = N1 x0 (1−x0 ). Un calcul simple (utilisant les moments N jusqu’à l’ordre 3 de la loi binomiale), montre que P(X1N i X1N − i X1N − i 3 C i 3 i 2 i (3) E T +θ ≤ 3 2N − 3N +N . N N N N N N N 4.3. POPULATION FINIE : LE MODÈLE DE WRIGHT-FISHER 199 Ainsi, ce terme se comporte comme N12 et est donc négligeable devant les premiers termes 1 pour N grand. Il s’en suit que T (x0 ) est approximativement égal à T (x0 ) + 2N x0 (1 − 00 x0 ) T (x0 ) + 1, d’où x0 (1 − x0 ) T 00 (x0 ) ' −2 N. Comme T (0) = T (1) = 0, nous en déduisons le résultat par la résolution de l’équation. 4.3.2 Modèle de Wright-Fisher avec mutation Supposons maintenant qu’au cours de la reproduction, il y ait des mutations de l’allèle A vers l’allèle a avec probabilité α1 et de l’allèle a vers l’allèle A avec probabilité α2 . Le modèle est toujours supposé neutre ; les deux allèles ont donc le même avantage sélectif. Le parent d’un individu sera toujours choisi uniformément au hasard dans la génération précédente, mais si ce parent est d’allèle A, l’individu héritera de l’allèle A avec probabilité 1 − α1 ou subira une mutation et portera l’allèle a avec probabilité α1 . Si ce parent est d’allèle a, l’individu héritera de l’allèle a avec probabilité 1 − α2 ou subira une mutation et portera l’allèle A avec probabilité α2 . Si (XnN )n est le processus décrivant le nombre d’allèles A à la génération n, la loi de N sera une loi binomiale de paramètres qui dépendent comme précédemment de la Xn+1 répartition de l’allèle A à la génération n. Si il y a i copies de l’allèle A à la génération n, cette répartition est donnée par pi = i(1 − α1 ) + (N − i)α2 . N N Dans ce cas, Xn+1 suit une loi binomiale B(N, pi ), et on a N P(Xn+1 avec pi = 4.3.3 = j|XnN N = i) = (pi )j (1 − pi )N −j , j (4.3.8) i(1−α1 )+(N −i)α2 . N Modèle de Wright-Fisher avec sélection Nous supposons ici que l’allèle A a un avantage sélectif sur l’allèle a, au sens où une copie portant l’allèle A a plus de chance de se répliquer (sa fertilité est plus grande). Soit s > 0 le paramètre décrivant cet avantage. Si à la génération n, il y a i individus possédant l’allèle A, l’avantage sélectif sera modélisé par le fait que la probabilité d’obtention de l’allèle A sera donnée par pi = (1 + s) i . (1 + s) i + N − i (4.3.9) 200 CHAPITRE 4. GÉNÉTIQUE DES POPULATIONS Nous aurons alors N P(Xn+1 = j|XnN N = i) = (pi )j (1 − pi )N −j . j (4.3.10) Nous pouvons de même modéliser un allèle défavorable ou délétère par un désavantage sélectif : dans ce cas s < 0. Plus généralement, nous pouvons également définir un modèle de Wright-Fisher avec sélection et mutation. Dans ce cas, le choix du parent est fait en donnant un avantage sélectif à un porteur de l’allèle A et tout individu peut subir une mutation à sa naissance comme cela a été décrit en section 4.3.2. Nous supposons donc que pi = [(1 + s) i (1 − α1 )] + (N − i) α2 . (1 + s) i + N − i (4.3.11) Remarquons que la différence pi − Ni de la fraction d’allèles A à la fin du cycle de la nième génération exprime la différence due à la sélection et à la mutation. Les fluctuations statistiques liées à la taille finie de la population apparaissent à travers le comportement aléatoire de la chaîne de Markov, décrit par les probabilités de transitions Pi,j . Il est difficile, pour une telle chaîne, de calculer les probabilités d’intérêt, telles les probabilités d’extinction ou de fixation de l’allèle A ou les temps moyens pour arriver à ces états. Nous allons voir dans le paragraphe suivant que si la taille N de la population est grande et si les effets individuels des mutations et de la sélection sont faibles, alors le processus (XnN )n peut être approché par un processus de diffusion pour lequel il sera plus facile d’obtenir des résultats quantitatifs. 4.4 Modèles démographiques de diffusion 4.4.1 Diffusion de Fisher-Wright Nous considérons donc ici une approximation du modèle de Wright-Fisher neutre, dans le cas où la taille de la population N tend vers l’infini. Nous supposons que N1 X0N a une limite z quand N → ∞. Dans ce cas, le nombre d’individus d’allèle A est de l’ordre de la taille de la population et l’espérance et la variance de la chaîne calculées à la Remarque 4.3.3 sont d’ordre N . Pour pouvoir espérer une limite intéressante, nous allons considérer le processus ( N1 XnN , n ≥ 0). Ainsi, si YnN = N1 XnN , nous aurons 1 N N E(Xn+1 |XnN = N x) = x et donc E(Yn+1 − YnN |YnN = x) = 0 N 1 1 N N V ar(Yn+1 − YnN |YnN = x) = 2 V ar(Xn+1 − XnN |XnN = N x) = 2 N x(1 − x). N N N E(Yn+1 |YnN = x) = Nous voyons donc que si N → ∞, l’espérance et la variance des accroissements sont asymptotiquement nulles et le processus semble rester constant. L’échelle de temps n’est 4.4. MODÈLES DÉMOGRAPHIQUES DE DIFFUSION 201 donc pas la bonne pour observer une limite non triviale, les événements de reproduction n’étant pas dans la même échelle que la taille de la population (leurs fluctuations sont beaucoup trop petites dans cette échelle de taille). Nous allons considérer une unité de temps qui dépend de la taille de la population et étudier le processus dans une échelle de temps très longue, qui correspond à une accélération du processus de reproduction. Pour t ∈ [0, T ], nous posons n = [N t], [x] désignant la partie entière de x. Reprenons les calculs précédents en posant 1 N N ZtN = X[N t] = Y[N t] . N Puisque n = [N t] et en posant ∆t = N1 , nous obtenons N N E(Zt+∆t |Ztn = x) = x et donc E(Zt+∆t − Ztn |ZtN = x) = 0 1 N V ar(Zt+∆t − Ztn |Ztn = x) = x(1 − x) = x(1 − x) ∆t. N N Dans cette échelle de temps, (ZT ) est une martingale et la variance du processus n’explose pas quand N tend vers l’infini. Nous pouvons également remarquer que les sauts du processus (ZtN , t ≥ 0) sont d’amplitude N1 et tendent vers 0 quand N tend vers l’infini. Ainsi, si le processus converge, sa limite sera continue en temps. Par ailleurs le processus (ZtN , t ≥ 0) est un processus de Markov. Nous pouvons plus précisément énoncer le théorème suivant. Théorème 4.4.1 Si la suite ( N1 X0N )N converge en loi vers Z0 ∈ [0, 1] quand N → ∞, N le processus ( N1 X[N t] , t ≥ 0) converge en loi vers la solution de l’équation différentielle stochastique Z tp Zs (1 − Zs ) dBs , (4.4.12) Zt = Z0 + 0 où (Bt , t ≥ 0) est un mouvement brownien standard. L’unicité est obtenue grâce au Théorème 2.4.12 et pour tout t, Zt ∈ [0, 1]. Preuve. La preuve rigoureuse de ce théorème dépasse le cadre de cet ouvrage. Nous en donnons seulement les grandes idées. Rt Le processus (ZtN ) est une martingale à valeurs dans [0, 1] de variance 0 E(ZsN (1−ZsN ))ds. On peut montrer la convergence en loi du processus (ZtN , t ≥ 0), en tant que processus à trajectoires continues à droite et limitées à gauche sur tout intervalle de temps [0, T ], vers une solution la solution (Zt , t ≥ 0) de (4.4.12). La preuve se fait en deux temps : - Montrer que la suite Z N admet une valeur d’adhérence ; cela nécéssite des arguments de relative compacité pour des lois de processus, probabilités sur l’espace fonctionnel des fonctions continues à droite et limitées à gauche (cf. Billingsley [7] ). - Montrer que cette valeur d’adhérence est unique. Il faut donc pour cela montrer qu’il y a unicité en loi du processus (4.4.12). Le Théorème 2.4.12 et le fait que le processus reste borné permettent d’obtenir l’unicité trajectorielle. Il est alors possible d’en déduire l’unicité en loi. L’unicité entraîne en particulier que si Z atteint les bords, il y reste, c’està-dire que les points 0 et 1 sont absorbants. 202 CHAPITRE 4. GÉNÉTIQUE DES POPULATIONS 4.4.2 Diffusion de Fisher-Wright avec mutation et sélection Reprenons les calculs précédents, dans le cas d’un modèle de Wright-Fisher avec mutation, avec les paramètres introduits en section 4.3.2. Dans ce cas et si XnN = i, la probabilité pi est définie par (4.3.11). Supposons qu’au moins un des paramètres α1 , α2 est non nul. Nous allons comme précédemment étudier le processus ZtN = 1 N X . N [N t] Les calculs donnent N E(Zt+∆t |ZtN = x) = pN x N − ZtN |ZtN = x) = N (−α1 x + (1 − x)α2 ) ∆t E(Zt+∆t N N N E((Zt+∆t − ZtN )2 |ZtN = x) = E((Zt+∆t )2 |ZtN = x) − 2xE(Zt+∆t |ZtN = x) + x2 1 = pN x (1 − pN x ) + p2N x − 2xpN x + x2 N 1 1 2 x(1 − x) + (α1 x − (1 − x)α2 )(2x − 1 − α1 x + (1 − x)α2 ) + (α1 x − (1 − x)α2 ) = ∆t. N N N − Ztn ait une chance de converger, Pour que l’espérance conditionnelle de l’écart Zt+∆t nous allons nous placer sous une hypothèse de mutations rares α1 = β1 β2 ; α2 = . N N (4.4.13) Cela veut dire que les probabilités de mutation sont inversement proportionnelles à la taille de la population. Nous avons alors la proposition suivante Proposition 4.4.2 Sous l’hypothèse des mutations rares (4.4.13), et si ( N1 X0N )N converge N en loi vers Z0 ∈ [0, 1] quand N → ∞, le processus ( N1 X[N t] , t ≥ 0) converge en loi vers la solution de l’équation différentielle stochastique Z tp Z t Zt = Z0 + Zs (1 − Zs ) dBs + (−β1 Zs + (1 − Zs ) β2 ) ds. (4.4.14) 0 0 L’unicité est obtenue comme ci-dessus grâce au Théorème 2.4.12. Là-encore, Zt ∈ [0, 1]. N Preuve. Sous l’hypothèse (4.4.13), E(Zt+∆t − Ztn |ZtN = x) converge vers (−β1 x + (1 − N x) β2 ) ∆t quand N → ∞. De plus, E((Zt+∆t − ZtN )2 |ZtN = x) converge alors vers x (1 − x) ∆t. Par des arguments analogues à ceux du Théorème 4.4.1, nous en déduisons le résultat. Nous allons maintenant étudier le cas d’un modèle de sélection et nous allons faire une hypothèse de sélection rare, au sens où r s= . (4.4.15) N 4.4. MODÈLES DÉMOGRAPHIQUES DE DIFFUSION 203 Le processus 1 N X N [N t] sera alors défini à partir du modèle de Wright-Fisher avec sélection, pour des probabilités de transition définies à partir des probabilités (4.3.9). Nous aurons alors la proposition suivante. ZtN = Proposition 4.4.3 Sous l’hypothèse de sélection rare (4.4.15) et si ( N1 X0N )N converge en N loi vers Z0 ∈ [0, 1] quand N → ∞, le processus ( N1 X[N t] , t ≥ 0) converge en loi vers la solution de l’équation différentielle stochastique Zt = Z0 + Z tp Z 0 t rZs (1 − Zs ) ds. Zs (1 − Zs ) dBs + (4.4.16) 0 . Preuve. Nous avons −x2 s + sx ∆t − = x) = N sx + 1 s2 x2 (1 + 2x + x2 ) N N 2 N E((Zt+∆t − Zt ) |Zt = x) = x(1 − x) + N ( ) ∆t. (xs + 1)2 N E(Zt+∆t ZtN |ZtN N Ainsi, en supposant (4.4.15), nous obtenons que E(Zt+∆t − ZtN |ZtN = x) converge vers N − ZtN )2 |ZtN = x) converge vers x(1 − x)∆t. rx(1 − x)∆t quand N → ∞ et que E((Zt+∆t Par des arguments analogues à ceux du Théorème 4.4.1, nous en déduisons le résultat. Proposition 4.4.4 Considérons maintenant le modèle le plus général avec mutation et sélection, où les probabilités de transition de (XnN , n ∈ N) sont obtenues par (4.3.11). Plaçons-nous sous les hypothèses de mutations et sélection rares (4.4.13) et (4.4.15). Alors, si ( N1 X0N )N converge en loi vers Z0 ∈ [0, 1], le processus (ZtN , t ≥ 0) défini par N ZtN = N1 X[N t] , converge en loi quand N tend vers l’infini vers la solution de l’équation différentielle stochastique Zt = Z0 + Z tp 0 Zs (1 − Zs ) dBs + Z t − β1 Zs + (1 − Zs ) β2 + rZs (1 − Zs ) ds. 0 (4.4.17) Remarque 4.4.5 Remarquons que si l’on veut calculer des probabilités de fixation ou d’extinction d’un allèle, les calculs sont presque impossibles, car trop compliqués sur les modèles discrets. Ils deviennent accessibles avec les outils du calcul stochastique, comme nous l’avons vu dans le Chapitre 2. 204 4.4.3 CHAPITRE 4. GÉNÉTIQUE DES POPULATIONS Autre changement d’échelle de temps Reprenons le modèle précédent mais considérons maintenant le processus RtN = 1 N X γ , N [N t] où 0 < γ < 1. Cela revient à dire que nous accélérons un peu moins le temps. Alors, en reprenant les calculs développés dans le modèle de mutation de la section 4.3.2 et en supposant maintenant que β1 β2 α1 = γ ; α2 = γ , N N N nous obtenons que E((Zt+∆t − Ztn )2 |Ztn = x) tend vers 0 quand N tend vers l’infini et que N − Ztn |ZtN = x) converge vers (−β1 x + (1 − x)β2 )∆t. Nous pouvons alors montrer E(Zt+∆t que si la suite ( N1 X0N )N converge en loi vers une limite déterministe y0 quand N → ∞, alors le processus (RtN , t ≥ 0) converge en loi vers la fonction (y(t), t ≥ 0) (déterministe) solution de l’équation différentielle dy(t) = (−β1 y(t) + (1 − y(t))β2 )dt ; y(0) = y0 . De même, dans le modèle de sélection avec s= r , Nγ on peut montrer que le processus (RtN , t ≥ 0) converge en loi vers la fonction (y(t), t ≥ 0) (déterministe) solution de l’équation différentielle dy(t) = ry(t)(1 − y(t))dt ; y(0) = y0 . (4.4.18) Dans l’approximation déterministe (4.4.18), il est facile de calculer l’équilibre. On voit que l’on atteint la fixation ou l’extinction selon que r > 0 ou r < 0. Nous remarquons donc que si 0 < γ < 1, la limite est déterministe et si γ = 1, la limite devient stochastique. Cette stochasticité provient de l’extrême variabilité due à un très grand nombre d’événements de reproduction d’espérance nulle (nous sommes dans une limite de type "Théorème de la limite centrale"). Bien-sûr, si γ > 1, les limites explosent, l’échelle de temps n’est plus adaptée à la taille de la population. Il est très important de garder en tête ces relations entre les échelles de taille et de temps et cette dichotomie entre un comportement déterministe qui prend en compte uniquement l’aspect macroscopique du phénomène et un comportement stochastique qui va en outre prendre en compte la très grande variabilité individuelle du système. 4.5. LA COALESCENCE : DESCRIPTION DES GÉNÉALOGIES 4.5 205 La coalescence : description des généalogies Imaginons une généalogie d’individus diploïdes, à savoir les individus et toute leur descendance. Chacun de ces individus va avoir un certain nombre de descendants auxquels il aura transmis une des 2 copies de ses gènes à un locus donné. D’une génération sur l’autre, certains gènes ne seront pas transmis, mais d’autres pourront être transmis en plusieurs exemplaires. Il est naturel de chercher à savoir quelle est la généalogie d’un échantillon de gènes (ou d’individus) observé à une certaine génération. Notre but est de reconstruire l’histoire généalogique des gènes jusqu’à leur ancêtre commun le plus récent, selon les contraintes démographiques de la population et en tenant compte de possibles mutations. Nous n’allons pas prendre en compte la totalité de la population, mais nous nous concentrerons sur l’échantilllon d’intérêt. C’est une approche rétrospective. Comme précédemment, nous allons assimiler la population diploïde de taille M à une population haploïde de taille 2M = N . On appelle lignée l’ascendance d’un gène. Lorsque deux lignées se rejoignent chez un gène ancestral, on dit qu’elles coalescent ou qu’il s’est produit un événement de coalescence. La théorie de la coalescence décrit donc simplement le processus de coalescence des lignées ancestrales des individus d’un échantillon depuis la génération présente jusqu’à leur ancêtre commun le plus récent. 4.5.1 Asymptotique quand N tend vers l’infini : le coalescent de Kingman Revenons tout d’abord au modèle de Wright-Fisher neutre, c’est-à-dire sans mutation ni sélection. Nous considérons un échantillon de k individus issus d’une population de taille N . Nous supposons que k est petit mais N est très grand (N → ∞). Rappelons que le mot individu désigne ici un allèle. Nous cherchons à reconstruire la généalogie des k individus de l’échantillon. Nous allons tout d’abord étudier le premier ancêtre commun à (au moins) deux de ces individus. Nous avons vu que la probabilité h(n) d’avoir hétérozygotie pour deux individus au temps n est donnée, pour une population de taille N , par la formule (4.3.7) : 1 n h(0). h(n) = 1 − N Supposons maintenant que N soit très grand. Si le temps n est petit, cette formule apporte peu d’information, hormis que h(n) est de l’ordre de h(0). Il est alors beaucoup plus intéressant d’étudier ce qui se passe en temps long (n grand). Nous allons donc faire l’hypothèse que nos observations sont obtenues en un temps n de l’ordre de N . En effet, puisque (1 − x) ∼ e−x quand x est proche de 0, nous en déduisons que n h(n) ∼ e− N h(0), 206 CHAPITRE 4. GÉNÉTIQUE DES POPULATIONS et Nn n’est pas négligeable. Ainsi, si n et N sont du même ordre, la probabilité d’hétérozygotie (appelée coefficient d’hétérozygotie en génétique des populations) décroît exponentiellement vite en la variable Nn . Nous pouvons faire un raisonnement similaire pour calculer la probabilité que deux individus (au moins) aient le même parent. Cet événement aura lieu si l’un des trois événements suivants est satisfait : • exactement deux individus parmi les k individus ont le même parent, • trois individus au moins ont le même parent, • au moins deux paires d’individus ont un parent en commun. La probabilité que deux individus exactement parmi les k individus aient le même parent est égale à k(k − 1) 1 . 2 N En effet la probabilité d’avoir le même parent pour deux individus fixés est N1 et il y paires d’individus possibles. La probabilité des deux autres événements est de a k(k−1) 2 l’ordre de N12 . Par exemple, la probabilité que 3 individus exactement aient le même parent sera k3 N N13 et la probabilité que deux paires d’individus exactement aient le 1 même parent est k2 k−2 . Ces événements ont donc des probabilités négligeables 2 N (N −1) par rapport à la probabilité du premier événement. Ainsi, quand N tend vers l’infini, la 1 . probabilité pour que deux individus aient le même parent est de l’ordre de k(k−1) 2 N En raisonnant comme dans la preuve de (4.3.7), nous obtenons alors que la probabilité qu’il n’y ait pas eu de parents communs pour ces k individus dans les n premières générations est proportionnelle à n k(k − 1) n k(k − 1) 1 ∼N →∞ exp − . 1− 2 N 2 N (4.5.19) A partir de maintenant, nous considérons les k individus de l’échantillon à un instant donné et nous allons remonter le temps. Définissons T , le premier instant où les k individus ont un ancêtre commun dans leur généalogie. Nous déduisons de (4.5.19) que k(k − 1) n P (T > n) ∼ exp − , 2 N quand N tend vers l’infini et n N tend vers une constante. L’analogie avec le comportement d’une variable exponentielle va nous faire comprendre dans quelle échelle de temps nous devons nous placer. En effet, rappelons que si τ suit une loi exponentielle de paramètre λ, alors P(τ > t) = e−λt . 4.5. LA COALESCENCE : DESCRIPTION DES GÉNÉALOGIES 207 Nous allons changer de temps et prendre N générations comme nouvelle unité de temps en remplaçant n par [N t] (qui désigne la partie entière de N t). Ainsi, dans cette nouvelle unité de temps, le temps de coalescence de k individus donnés, c’est-à-dire le temps d’apparition du premier ancêtre commun à deux individus dans le passé de cet échantillon, sera défini dans cette échelle de temps et se comportera donc comme une variable aléatoire exponentielle 2 et donc de moyenne k(k−1) . de paramètre k(k−1) 2 Remarque 4.5.1 Le temps de coalescence de 2 lignées est une variable aléatoire exponentielle de paramètre 1 et pour k individus, le premier temps auquel une paire a un ancêtre commun est donc l’infimum de k(k−1) variables aléatoires exponentielles de para2 mètre 1 indépendantes. Nous allons plus généralement définir le k-coalescent comme processus limite, quand N tend vers l’infini, du processus qui décrit la généalogie de k individus. Définition 4.5.2 Soit k ∈ N∗ . On appelle k-coalescent la chaîne de Markov (Πt )t à valeurs dans l’ensemble Pk des partitions de {1, . . . , k} définie de la manière suivante : • Π0 = {{1}, . . . , {k}}. • Soit Ti le i-ème temps de coalescence. On pose T0 = 0. Alors les intervalles de temps . Ti − Ti−1 sont indépendants et suivent des lois exponentielles de paramètre (k−i)(k−i+1) 2 • A chaque temps de saut, deux blocs de la partition sont choisis uniformément parmi les paires de blocs existantes et coalescent, au sens où les deux sous blocs sont regroupés en un seul. Remarquons que la définition donnée du k-coalescent permet d’en déduire facilement un algorithme de simulation : • On se donne k individus. On pose Π̃0 = {{1}, . . . , {k}}. • On simule une variable aléatoire exponentielle de paramètre k(k−1) . Pour ce faire, on 2 2 considère une variable aléatoire U de loi uniforme sur [0, 1] et on pose T1 = k(k−1) log(1/U ). (cf [30]). • On choisit uniformément au hasard deux blocs distincts de la partition, (donc avec 2 probabilité k(k−1) ). On regroupe ces deux blocs en un seul bloc. On appelle alors Π̃1 cette nouvelle partition. • On réitère cette procédure. Après l’étape i−1, on simule une variable aléatoire exponentielle de paramètre (k−i+1)(k−i) . On choisit uniformément au hasard deux blocs distincts 2 2 de la partition composée de k − i + 1 blocs, (donc avec probabilité (k−i)(k−i+1) ). On regroupe ces blocs en un seul ensemble. On obtient ainsi Π̃i . • On pose alors X Πt = Π̃i 1{Ti ≤t<Ti+1 } . i (4.5.20) 208 CHAPITRE 4. GÉNÉTIQUE DES POPULATIONS A chaque temps de coalescence, le nombre d’éléments de la partition diminue de 1, et donc il sera réduit à un élément au bout de k − 1 événements de coalescence. Cet élément est le plus récent ancêtre commun aux k individus (PRAC). Le temps T où l’on a trouvé cet ancêtre est T = Tk−1 . Théorème 4.5.3 Soit T le temps du plus récent ancêtre commun des k individus de l’échantillon. Alors 1 . (4.5.21) E(T ) = 2 1 − k Preuve. Nous écrivons T = Tk−1 = Tk−1 − Tk−2 + . . . + T1 . T est donc la somme de k − 1 variables aléatoires exponentielles indépendantes , pour i variant de 1 à k − 1. Ainsi, de paramètres (k−i+1)(k−i) 2 E(T ) = k−1 X i=1 k−1 X 2 =2 (k − i)(k − i + 1) i=1 1 1 − k−i k−i+1 1 =2 1− . k Théorème 4.5.4 (cf. Durrett [12]). Si π est une partition de {1, . . . , k} en l blocs, soit π = (B1 , B2 , . . . , Bl ). Alors cette partition pourra être réalisée au temps Tk−l et l P(ΠTk−l = π) = l! (k − l)!(l − 1)! Y (Card(Bi ))!. k! (k − 1)! i=1 (4.5.22) Nous avons ainsi une description de la loi du k-coalescent. Dans la suite, nous noterons ck,l = l! (k − l)!(l − 1)! k! (k − 1)! (4.5.23) et si B1 , . . . , Bl sont les blocs de la partition π, nous définirons w(π) = l Y (Card(Bi ))!. (4.5.24) i=1 Ainsi la probabilité qu’au (k − l)-ième temps de coalescence, le k-coalescent à l blocs soit égal à π, est le produit du terme ck,l qui ne dépend que de k et l, et du poids 4.5. LA COALESCENCE : DESCRIPTION DES GÉNÉALOGIES 209 Ql i=1 (Card(Bi ))! qui favorise les partitions inégales. (Le lecteur pourra vérifier à titre d’exemple qu’une partition de 5 individus composée de deux blocs de 2 et 3 individus sura un poids égal à 12 alors qu’une partition composée de deux blocs de 4 et 1 individus aura le poids 24). Remarquons que le temps Tk−l est indépendant de l’état de la partition. Preuve. La preuve consiste en une induction descendante sur l. Quand l = k, la seule partition π possible est la partition composée des blocs singletons, et la probabilité de réalisation de π est 1, ce qui est également donné par le membre de droite de (4.5.22) pour l = k. Supposons que (4.5.22) soit vraie pour toute partition de taille l et considérons une partition η de taille l − 1. Nous notons ξ < η si Card(ξ) = Card(η) + 1 et si la partition η est obtenue après regroupement de deux blocs de ξ. Quand ξ < η, il y a exactement un événement de coalescence qui va faire passer de ξ à η. Alors, 2 si ξ < η l(l−1) (4.5.25) P(ΠTk−l+1 = η|ΠTk−l = ξ) = 0 sinon. Nous avons donc P(ΠTk−l+1 = η) = X 2 P(ΠTk−l = ξ). l(l − 1) ξ<η (4.5.26) Etant donnée une partition ξ de {1, · · · , k} en l blocs, nous ordonnons ses blocs en ξ1 , ξ2 , ..., ξl , où ξ1 est le bloc contenant 1, ξ2 celui contenant le plus petit nombre qui n’est pas dans ξ1 ,... Si les entiers λ1 , . . . , λl−1 sont les tailles des blocs de la partition η, alors pour pour j tel que 1 ≤ j ≤ l − 1, et m tel que 1 ≤ m < λj , nous associons une partition ξ < η, où les blocs de ξ ont les tailles λ1 , . . . , λj−1 , m, λj − m, λj+1 , . . . , λl−1 . Remarquons qu’il y a 21 λmj choix d’une telle partition ξ < η, où le j-ème bloc a été coupé en λj − m et m individus. Utilisant l’hypothèse de récurrence, nous obtenons alors que j −1 l−1 λX X 2 1 λj P(ΠTk−l+1 = η) = ck,l λ1 ! . . . λj−1 !m!(λj − m)!λj+1 ! . . . λl ! l(l − 1) j=1 m=1 2 m l−1 λj −1 ck,l X X = w(η) 1. l(l − 1) j=1 m=1 La double somme vaut l−1 X j=1 (λj − 1) = k − (l − 1). (4.5.27) 210 CHAPITRE 4. GÉNÉTIQUE DES POPULATIONS Nous vérifions alors facilement que ck,l (k − l + 1) = ck,l−1 . l(l − 1) Le résultat est donc prouvé par induction. Théorème 4.5.5 (cf. Durrett [12]). Soit σ une permutation choisie au hasard parmi les permutations de {1, . . . , l}. Soit λj = Card(ξσ(j) ) la taille du j-ième bloc de la partition ΠTk−l , quand les blocs sont réarrangés suivant σ et que l’on est parti de la numérotation naturelle. Alors (λ1 , . . . , λl ) suit une loi uniforme sur les vecteurs de (N∗ )l de somme k. Par exemple, pour l = 2, la loi de la taille d’un des deux blocs de ΠTk−2 tiré au hasard est uniformément distribuée sur {1, . . . , k − 1}. Preuve. Chaque réarrangement ordonné des l blocs de la partition ΠTk−l = Π (constituée c w(Π) de k individus) a la probabilité k,l l! d’être choisi. Si nous gardons seulement l’information sur les tailles des blocs, alors la probabilité que les blocs aient des tailles égales au vecteur (λ1 , . . . , λl ) vaut, par la formule des probabilités conditionnelles, ck,l w(Π) (k − l)!(l − 1)! k! = = l! λ1 !λ2 ! . . . λl ! (k − 1)! 1 . k−1 l−1 La quantité finale ne dépend que de k et de l, et pas du vecteur (λ1 , . . . , λl ). Ainsi, la distribution est uniforme. Vérifions que le dénominateur de la dernière fraction donne le nombre de vecteurs composés d’entiers positifs de somme égale à k. Imaginons k boules séparées en l groupes par l − 1 morceaux de carton. Par exemple, si k = 10 et l = 4, nous pourrions avoir OOO|O|OOOO|OO. Les l−1 morceaux de carton peuvent se déplacer dans les k−1 espaces entre les boules. Il y k−1 a donc l−1 choix possibles de vecteurs de taille l d’entiers positifs de somme égale à k. Comme conséquence de ce théorème, nous avons le résultat étonnant suivant. Théorème 4.5.6 La probabilité que le plus récent ancêtre commun d’un groupe de k k−1 quand la taille individus soit le même que celui de la population totale converge vers k+1 N de la population tend vers l’infini. Par exemple, quand k = 2, cette probabilité vaut 1 3 et quand k = 10, elle est de 9 . 11 Preuve. Soit N la taille de la population. Les k individus n’ont pas le même PRAC (plus récent ancêtre commun) que la population totale de taille N , si et seulement si au premier branchement (dans le sens du temps physique) dans l’arbre de coalescence de la 4.5. LA COALESCENCE : DESCRIPTION DES GÉNÉALOGIES 211 population, il y a une partition en deux sous-arbres, et les k individus de l’échantillon doivent nécessairement appartenir à l’un ou à l’autre de ces sous-blocs. Notons P RACN 6= P RACk l’événement "le PRAC de la population totale de taille N diffère de celui du groupe d’individu de taille k". Notons P(i, N − i) l’événement "Au premier branchement, on a partition en 2 blocs de taille (i, N − i)". Nous pouvons alors écrire P(P RACN 6= P RACk ) = N X P(P RACN 6= P RACk |P(i, N − i)) × P(P(i, N − i)) i=1 (4.5.28) La probabilité d’existence de la partition (i, N − i) est uniforme, donnée par le théorème 4.5.5 pour l = 2, et vaut donc N1−1 . Sachant P(i, N − i), l’événement P RACN 6= P RACk sera réalisé si les k individus sont soit dans le bloc de taille i, soit dans le bloc de taille N − i. Comme N est très grand, nous pouvons supposer que l’échantillonnage des k individus parmi les N se fait suivant un tirage avec remise. Alors nous obtenons P(P RACN 6= P RACk |P(i, N − i)) ∼N →∞ i N k + N −i N k , puis k P(P RACN 6= P RACk ) ∼N →∞ 1 X N − 1 i=1 i N k + N −i N k ! . (4.5.29) En utilisant la convergence des sommes de Riemann, nous en déduisons que Z lim P(P RACN 6= P RACk ) = N →∞ 0 1 xk + (1 − x)k dx = 2 . k+1 Finalement limN →∞ P(P RACN = P RACk ) = 1 − limN →∞ P(P RACN 6= P RACk ) = 2 1 − k+1 , ce qui conclut la preuve. 4.5.2 Mutation sur le coalescent Le modèle précédent est un modèle très simple, car sans mutation, mais qui peut être justifié dans certaines échelles de temps. En fait de nombreuses mutations se produisent, à chaque reproduction. Nous supposons que des mutations arrivent sur l’arbre et qu’il y a tant d’allèles possibles que chaque mutation est toujours d’un type nouveau. Cette hypothèse est biologiquement raisonnable. En effet, si par exemple un gène consiste en 500 nucléotides (les bases A, T, G ou C), le nombre de séquences d’ADN possibles est 4500 = 10301 , et il est raisonnable de supposer que la probabilité d’avoir deux mutations au même nucléotide en un temps raisonnable est négligeable. 212 CHAPITRE 4. GÉNÉTIQUE DES POPULATIONS Il y a deux manières de prendre en compte ces mutations : soit on compte le nombre total de mutations (ISM, infinite site model), soit on compte le nombres d’allèles différents que l’on obtient dans un échantillon de taille k (IAM, infinite allele model). La première est plus simple du point de vue mathématique, mais la deuxième correspond à des observations biologiques. Comme précédemment, k désigne la taille de l’échantillon que l’on considère. On appelle Mk le nombre de mutations et Ak le nombre d’allèles différents. Exemple : Figure 4.2 – Mutations sur le coalescent Dans la figure 4.2, nous avons M8 = 10 , A8 = 7. Il est très intéressant de connaître les lois de ces variables aléatoires. Par exemple, reprenons les exemples donnés dans le livre de Durrett (cf. [12]) : dans une étude de drosophiles, portant sur 60 gènes à un certain locus, on a répertorié 18 allèles uniques, 3 allèles ayant 2 représentations, 1 en ayant 4 et 1 en ayant 32. Ainsi, a1 = 18, a2 = 3, a4 = 1, a32 = 1, où ai est le nombre d’allèles possédés par i mouches de l’échantillon. De même l’étude de 146 gènes d’une autre variété de drosophile à ce même locus donne a1 = 20, a2 = 3, a5 = 2, a6 = 2, a8 = 1, a11 = 1, a68 = 1. On peut donc se demander comment évolue la loi de la variable aléatoire Ak , et c’est à cela que va répondre la formule d’échantillonnage d’Ewens. Essayons tout d’abord de comprendre comment l’on construit un coalescent avec mutations. 4.5. LA COALESCENCE : DESCRIPTION DES GÉNÉALOGIES 4.5.3 213 Le coalescent avec mutation Revenons ici au modèle de Wright-Fisher pour une population de taille N dans laquelle nous considérons un échantillon de taille k. Comme précédemment, les individus de la génération n choisissent leur parent dans la génération n − 1, uniformément parmi les N individus, indépendamment les uns des autres. Nous avons vu que la probabilité d’avoir un 1 . Nous supposons de plus que l’allèle du descendant événement de coalescence vaut k(k−1) 2 N n’est pas automatiquement héritable de celui du parent et que l’on peut avoir une mutation avec probabilité µ. Cela veut dire que l’allèle d’un individu est hérité de celui du parent avec probabilité 1 − µ et qu’avec probabilité µ, un nouveau type apparaît. Nous allons nous intéresser au modèle limite, dans l’asymptotique du coalescent de Kingman. Comme précédemment, nous obtenons que la probabilité qu’il n’y ait pas de parents communs pour les k individus de l’échantillon choisi est, quand N tend vers l’infini, de l’ordre de k(k − 1) n . exp − 2 N θ Par ailleurs, si l’on suppose que µ ∼ 2N , la probabilité pour qu’il y ait eu une mutation θ , qui est la probabilité qu’il y ait eu à la génération précédente est de l’ordre de k 2N exactement une mutation. En effet, la probabilité qu’il y ait au moins deux mutations est d’ordre N12 . Ainsi, nous obtenons que la probabilité qu’il n’y ait pas eu de mutation au cours des n premières générations et pour les k individus est de l’ordre de n θn θ ∼N →∞ exp −k 1−k . 2N 2N Donc, si S désigne le premier instant où au moins un individu parmi les k individus de l’échantillon provient d’une mutation, nous avons θn P(S > n) ∼N →∞ exp −k . 2N Ainsi, le changement d’échelle de temps n = [N t] qui permet d’obtenir le coalescent de Kingman, entraîne aussi que le temps d’apparition d’une mutation suit une loi exponen2 tielle de paramètre k 2θ , et donc de moyenne kθ . Nous obtenons ainsi un modèle de coalescent avec taille infinie et taux de mutation 2θ . Nous avons sur chaque branche un taux 2θ de mutation et sur chaque couple de branches un taux 1 de coalescence. La construction algorithmique du coalescent avec mutation se fait exactement comme celle de la Définition 4.5.2. Toutefois, il y a sur chaque branche de l’arbre de coalescence une horloge exponentielle de paramètre 2θ . Si elle sonne, l’allèle du parent est remplacée par un nouveau type, choisi dans un océan de types différents, qui va se transmettre ensuite. Plus précisemment, entre les instants de coalescence Ti−1 et Ti , il y a i individus et le temps de mutation suivra une loi exponentielle de paramètre i 2θ . 214 CHAPITRE 4. GÉNÉTIQUE DES POPULATIONS Remarque fondamentale : Si nous remontons le temps dans le coalescent de Kingman, à partir d’un échantillon de taille k + 1, nous savons qu’un événement de coalescence aura et une mutation au taux (k + 1) 2θ . Si une branche est choisie au hasard, lieu au taux k(k+1) 2 une mutation se produira avant un événement de coalescence avec probabilité Z ∞ Z θ −(k+1) θ u ∞ k(k + 1) − k(k+1) v 2 (k + 1) e P(S < T ) = e 2 dvdu 2 2 0 u Z ∞ k(k+1) θ θ θ (k + 1) e−(k+1) 2 u e− 2 u du = . = 2 θ+k 0 De même, un événement de coalescence de produira avant une mutation avec probabilité k . θ+k 4.5.4 Urne de Hoppe, restaurant chinois et modèle de Hubbell Nous allons présenter ici trois modèles équivalents à notre coalescent avec mutation. • L’urne de Hoppe. L’urne de Hoppe contient une boule noire de masse θ et des boules colorées de masse 1. Le processus de remplissage de l’urne est itératif. Initialement, il y a une boule noire. Au k-ième tirage, une boule est tirée (tirage avec remise) au prorata de sa masse. Si une boule colorée est choisie, on la remet dans l’urne en rajoutant une autre boule de même couleur. Si la boule tirée est noire, on rajoute une boule d’une nouvelle couleur. On suppose que le nombre de couleurs est infini. Le choix de la boule noire correspond à une nouvelle mutation et le choix d’une boule colorée à un événement de coalescence. Avant le (k + 1)-ième tirage, il y a donc k + 1 boules dans l’urne. Une θ et un événement de coalescence avec mutation sera donc choisie avec probabilité θ+k k probabilité θ+k . Ak est ici le nombre de couleurs différentes après k tirages. Nous avons le théorème suivant. Théorème 4.5.7 La généalogie de k particules dans un coalescent avec mutation peutêtre obtenue (du point de vue de la loi) en simulant k étapes du processus de tirage et remplacement de couleurs dans une urne de Hoppe. Remarque : cette construction est très pratique pour la simulation d’un coalescent avec mutation. • Le modèle du restaurant chinois. Nous considérons une infinité de tables. Supposons k convives assis à un certain nombre de tables. Un nouveau convive arrive. Avec θ 1 probabilité θ+k , il s’assied à une nouvelle table et avec probabilité θ+k , il choisit un convive au hasard et s’assoit à son côté. Le nombre d’allèles (d’espèces) distincts a même loi que le nombre de tables occupées. 4.5. LA COALESCENCE : DESCRIPTION DES GÉNÉALOGIES 215 • Le modèle écologique de Hubbell (cf. Hubbell [18]). L’approximation conduisant au coalescent avec mutation a aussi son intérêt en écologie, à travers le modèle écologique de Hubbell. C’est un modèle d’écologie quantitative. On considère une forêt comprenant N sites occupés par N arbres d’espèces variées. Chaque arbre qui meurt laisse place à un nouvel arbre dont l’espèce est soit ré-échantillonnée parmi les k − 1 arbres restants avec probabilité 1 − µ, soit remplacée par une nouvelle espèce avec probabilité µ. On suppose que les espèces migrantes proviennent d’une métacommunauté d’arbres composée d’un nombre infini d’espèces. La probabilité µ s’appelle le taux de spéciation. 4.5.5 Loi du nombre d’allèles distincts, formule d’Ewens Etudions la loi de Ak . Remarquons que dans le modèle du restaurant chinois, c’est le nombre de tables occupées par les k premiers convives. Théorème 4.5.8 1) La variable aléatoire Ak peut s’écrire Ak = k X εi , i=1 où les variables aléatoires εi sont des variables aléatoires de Bernoulli indépendantes de loi P(εi = 1) = θ . θ+i−1 (4.5.30) V ar(Ak ) ∼k→∞ θ ln k. (4.5.31) 2) Il s’en suit que E(Ak ) ∼k→∞ θ ln k ; 3) Si Φ désigne la fonction de répartition de la loi normale centrée réduite, alors pour tout nombre réel x, on a ! Ak − E(Ak ) ≤ x −→ Φ(x), (4.5.32) P p V ar(Ak ) quand k tend vers l’infini. Preuve. Dans les différents modèles, nous posons εi = 1 si le i-ième allèle provient d’une mutation, (ou si le i-ième convive choisit une nouvelle table, ou si le i-ième tirage donne une nouvelle couleur). Nous posons εi = 0 sinon. Alors les εi sont des variables aléatoires de θ Bernoulli indépendantes et de paramètre θ+i−1 . Nous avons donc E(Ak ) = k X i=1 E(εi ) = k X i=1 θ θ+i−1 ; V ar(Ak ) = k X i=1 θ(i − 1) . (θ + i − 1)2 216 CHAPITRE 4. GÉNÉTIQUE DES POPULATIONS En utilisant la décroissance de x → Z 0 k θ , θ+x il est facile de montrer que θ dx ≤ E(Ak ) ≤ 1 + θ+x Z k−1 0 θ dx. θ+x Nous en déduisons que E(Ak ) ∼k→∞ θ ln(k). Nous avons de plus que 2 k−1 X θ , V ar(Ak ) − E(Ak ) = − θ+i i=0 qui est la somme partielle d’une série convergente. Cela entraîne que V ar(Ak ) se comporte comme E(Ak ), quand k tend vers l’infini. La troisième assertion découle d’un théorème de la limite centrale qui généralise le théorème central limite classique : ici, les variables aléatoires sont indépendantes mais pas de même loi. Le théorème est le suivant. Théorème 4.5.9 Soit (Xi )i une suite de variables indépendantes de carré intégrable centrées. Introduisons Sn = X1 + · · · + Xn et s2n = E(Sn2 ). Alors la condition de Lindenberg ∀ε > 0, n 1 X E Xi2 1|Xi |>εsn →n→∞ 0 2 sn i=1 Sn 2 est réalisée si et seulement si limn (s−2 n max1≤i≤n E(Xi )) = 0 et dans ce cas, la suite ( sn )n converge en loi vers une variable aléatoire normale centrée réduite. Appliquons ce théorème dans notre contexte. On peut montrer que θ θ(i − 1) = , 2 1≤i≤n (θ + i − 1) (θ + 1)2 max E((εi − E(εi ))2 ) = max 1≤i≤n 2 et nous savons que s2n ∼ θ ln n. Ainsi la condition limn (s−2 n max1≤i≤n E(i )) = 0 est réalisée et nous pouvons appliquer le théorème. Ainsi, la suite une loi normale centrée réduite. Ak −E(Ak ) √ V ar(Ak ) converge en loi vers k Comme conséquence immédiate du théorème 4.5.8, nous voyons que la variable aléatoire lnAkk est un estimateur asymptotiquement normal du paramètre inconnu θ. Et nous savons de 1 plus que sa variance tend très lentement vers 0, à la vitesse de ln(k) . Cela donne une très mauvaise vitesse de convergence de l’estimateur, et nécessite donc de très grandes tailles d’échantillons. Ainsi, si l’on veut estimer θ avec une erreur de 0, 01, on doit utiliser un échantillon de taille approximativement k = e100 . Il serait naturel de chercher un autre moyen d’estimer θ. Mais en fait il n’y en a pas d’autre aussi bon. (cf. Durrett) 4.5. LA COALESCENCE : DESCRIPTION DES GÉNÉALOGIES 217 Le dernier résultat de ce chapitre décrit le comportement asymptotique du nombre d’allèles. Il est dû à Ewens (cf. Ewens [14]), et donne la distribution complète dans l’échantillon, le nombre d’allèle présents et leur quantité. Pour j ∈ {1, · · · , k}, soit Nj le nombre d’allèles portés par j individus dans l’échantillon. Par exemple, N1 est le nombre d’allèles singletons. Les Nj vérifient en particulier k X jNj = k. (4.5.33) j=1 On a alors le théorème suivant. Théorème 4.5.10 Pk (Formule d’Ewens). Considérons k entiers n1 , · · · , nk inférieurs ou égaux à k avec j=1 jnj = k. Alors on a nj n j θ θ k k Y j k! Y j j = , (4.5.34) P(N1 = n1 , · · · , Nk = nk ) = j − 1 + θ n ! θ n ! j j (k) j=1 j=1 où θ(k) = θ(θ + 1) · · · (θ + k − 1). La formule peut paraître très compliquée mais semblera plus familière si on l’écrit nj k Y − θ θj , Ck,θ e j n ! j j=1 où Ck,θ est une constante qui dépend de θ et k, telle que la somme des probabilités cidessus vaut 1. En d’autres mots, si on considère des variables aléatoires Y1 , · · · , Yj , · · · Yk indépendantes et de loi de Poisson de paramètres respectifs θj , la partition allélique a même P loi que la distribution de (Y1 , · · · , Yk ) conditionnellement à j jYj = k. Ce résultat sera justifié ultérieurement. Preuve. Il suffit de montrer que la distribution des couleurs dans l’urne de Hoppe au temps k est donnée par la formule d’Ewens. Nous le montrons par récurrence sur k. Quand k = 1, la partition N1 = 1 a probabilité 1 et le résultat est prouvé. Supposons maintenant que la propriété soit prouvée pour tout temps inférieur à k − 1. Supposons qu’au temps k, on ait la distribution N1 = n1 , · · · , Nk = nk . Notons n = (n1 , · · · , nk ) et soit n̄ l’état de la répartition allélique au temps précédent. Notons nj θ k Y j k! Pθ (n) = . θ(k) j=1 nj ! Nous allons montrer que X n̄ On a plusieurs possibilités : Pθ (n̄)p(n̄, n) = Pθ (n). (4.5.35) 218 CHAPITRE 4. GÉNÉTIQUE DES POPULATIONS • Si n̄1 = n1 − 1 : cela veut dire qu’une nouvelle couleur vient d’être ajoutée. Dans ce cas, la probabilité de transition pour l’urne de Hoppe est de p(n̄, n) = θ . θ+k−1 En notant N = (N1 , · · · , Nk ) on aura par ailleurs par la formule d’Ewens que Pθ (n) k θ = . Pθ (n̄) θ + k − 1 n1 • Supposons que pour 1 ≤ j ≤ k, on a n̄j = nj + 1 et que n̄j+1 = nj+1 − 1. Une couleur existante, qui était la couleur de j boules a été choisie, et le nombre de boules de cette couleur devient j + 1. Dans ce cas, la probabilité de transition vaut alors p(n̄, n) = j n̄j . θ+k−1 Le rapport des probabilités donné par la formule d’Ewens est par ailleurs : Pθ (n) k j n̄j = . . Pθ (n̄) θ + k − 1 (j + 1)nj+1 Observons maintenant que X Pθ (n̄) θ θ + k − 1 n1 p(n̄, n) = . . P (n) θ + k − 1 k θ θ n̄ + k−1 X j=1 θ + k − 1 (j + 1)nj+1 j n̄j . . . θ+k−1 k j n̄j En simplifiant les termes du membre de droite, nous obtenons finalement que X Pθ (n̄) n̄ k−1 n1 X (j + 1)nj+1 p(n̄, n) = + = 1, Pθ (n) k k j=1 Pk puisque j=1 jnj = k. Ainsi donc, les probabilités définies par la formule d’Ewens satisfont (4.5.35). La distribution des couleurs de l’urne de Hoppe satisfait aussi cette propriété (4.5.35), avec la même valeur de la probabilité d’obtenir n̄, par hypothèse de récurrence. On en déduit que P(N = n) est donnée par la formule d’Ewens. On en déduit que Proposition 4.5.11 Si l’on considère la répartition de (N1 , · · · , Nh ), où h est un nombre fixé, alors que la taille k de l’échantillon tend vers l’infini, on a lim P(N1 = n1 , · · · , Nh = nh ) = P(Y1 = n1 , · · · , Yh = nh ), k→∞ (4.5.36) où les variables aléatoires Y1 , · · · , Yh sont indépendantes et de loi une loi de Poisson de paramètres respectivement θ, · · · , hθ . 4.5. LA COALESCENCE : DESCRIPTION DES GÉNÉALOGIES 4.5.6 219 Le point de vue processus de branchement avec immigration On peut relier l’urne de Hoppe et la répartition allélique dans le coalescent à un processus de branchement linéaire avec immigration. Pour ce processus, les migrants arrivent dans la population aux temps successifs d’un processus de Poisson de paramètre θ. Chaque individu de la population suit les règles de reproduction d’un processus de branchement binaire. Les individus ne meurent jamais, et se reproduisent en donnant naissance à un autre individu après un temps exponentiel de paramètre 1. Si on regarde ce processus uniquement aux instants où le nombre de particules croît, on obtient un processus de branchement binaire en temps discret. Si on a une population de k individus, le nouvel k θ , et avec probabilité k+θ , il prendra le arrivant aura un nouveau type avec probabilité θ+k type d’un individu choisi uniformément dans la population existante. A partir de cette description, il est clair que la chaîne de Markov incluse dans ce processus de branchement binaire avec immigration a même distribution que la répartition des couleurs dans le modèle de Hoppe. Théorème 4.5.12 Si chaque migrant est d’un nouveau type, et si les naissances sont du même type que celui des parents, alors la suite des états du processus de branchement avec immigration a la même distribution que celle générée par l’urne de Hoppe. Combinons cette dernière observation avec le fait suivant. Lemme 4.5.13 (cf. Athreya-Ney [3] (p. 109)). Soit un processus de branchement binaire (à taux 1) issu d’une individu unique. Alors le nombre de particules au temps t a une distribution géométrique avec probabilité de succès p = e−t . Nous obtenons alors une nouvelle preuve du théorème 4.5.5. Théorème 4.5.14 Considérons le coalescent issu de l lignées et s’arrêtant quand il y en a k (l ≥ k). Soit J1 , · · · , Jk les nombres de lignées dans l’échantillon issues de k individus, quand ils sont labellés au hasard. Alors (J1 , · · · , Jk ) est uniformément distribué sur les vecteurs d’entiers positifs de somme l, et ainsi, l−m−1 l−1 P (Ji = m) = . k−2 k−1 Preuve. Soit Zti , 1 ≤ i ≤ k, des copies indépendantes du processus de branchement binaire. Si j1 , · · · , jk sont des entiers positifs de somme l, alors par le lemme 4.5.13, P(Zt1 = j1 , · · · , Ztk = jk ) = (1 − p)l−k pk où p = e−t . Puisque le terme de droite dépend seulement de la somme l et du nombre de termes k, tous les vecteurs possibles ont la même probabilité. Comme déjà vu dans la preuve du 220 CHAPITRE 4. GÉNÉTIQUE DES POPULATIONS théorème 4.5.5, il y a Ainsi il s’en suit que l−1 k−1 vecteurs possibles (j1 , · · · , jk ) d’entiers positifs de somme l. ! X k l−1 j k 1 Zt = l = 1/ . P Zt = j1 , · · · , Zt = jk k−1 j=1 La distribution conditionnelle est donc uniforme sur tous les vecteurs possibles. Puisque 1 −1 le nombre de vecteurs (j2 , · · · , jk ) d’entiers positifs de somme l − j1 est l−j , on k−2 obtient ! X k l − j1 − 1 l−1 j 1 Zt = l = / . P Zt = j1 k − 2 k − 1 j=1 Cela termine la preuve. Ce jeu de modèles entre le modèle en temps discret de l’urne de Hoppe et le modèle de branchement en temps continu avec immigration est très intéressant et utile. En particulier dans la preuve précédente, on a utilisé fortement l’indépendance des différentes familles créées par le processus de branchement. Cela va conduire à de jolis résultats sur le comportement asymptotique de la distribution d’Ewens, quand k est grand. Définissons Sj (k) la taille de la j-ème famille quand il y a k individus. (La j-ème plus ancienne). Alors on a le théorème suivant. Théorème 4.5.15 Pour j ∈ N∗ , on a limk→∞ Sj (k) k = Xj , presque-sûrement, avec j−1 Y Xj = Z j (1 − Zi ), i=1 où les variables aléatoires Zj sont indépendantes et ont pour loi une loi beta(1, θ) de densité θ(1 − x)θ−1 , x ∈ [0, 1]. La loi de (Xj )j s’appelle la loi de Poisson-Dirichlet. C’est une loi sur les partitions de [0, 1]. .1 Le théorème de Perron-Frobenius De manière évidente, la matrice M est positive, au sens où tous ses termes sont positifs. .1. LE THÉORÈME DE PERRON-FROBENIUS 221 Dans la suite, nous ferons l’hypothèse supplémentaire suivante (voir Athreya-Ney [3], Haccou-Jagers-Vatutin [17]) : Il existe un entier n0 tel que tous les éléments de la matrice M n0 sont strictement positifs (.1.37) . De telles matrices ont des propriétés intéressantes (cf. Serre [40]). D’un point de vue biologique, cela veut dire que toute configuration initiale peut amener en temps fini à toute autre composition de la population en les différents types. Définition .1.1 On dira que les vecteurs u ∈ RK et v ∈ RK sont des vecteurs propres à gauche et à droite de M associés à la valeur propre λ ∈ C si u∗ M = λu∗ , M v = λv, ou encore λuk = K X uj mjk , j=1 K X mjk vk = λvj . k=1 Enonçons le théorème principal. Théorème .1.2 (Serre [40], [17]). Théorème de Perron-Frobenius. Soit M une matrice carrée K × K à coefficients positifs et satisfaisant (3.1.25). Alors 1) il existe un unique nombre réel λ0 > 0 tel que • λ0 est une valeur propre de M , • toute valeur propre λ de M (réelle ou complexe) est telle que |λ| ≤ λ0 . La valeur propre λ0 est appelée valeur propre dominante de M . 2) les coefficients qui composent les vecteurs propres à gauche u et à droite v, correspondant à la valeur propre λ0 , peuvent être choisis tels que K X k=1 uk = 1 ; K X uk vk = 1. k=1 Dans ces conditions, les vecteurs propres sont uniques. De plus, M n = λn0 A + B n , où A = (vk uj )k,j∈{1,··· ,K} et B sont des matrices telles que : • AB = BA = 0, • Il existe des constantes ρ ∈]0, λ0 [ et C > 0 telles qu’aucun des éléments de la matrice B n n’excède Cρn . Index écologie, 11 équation différentielle stochastique, 72 état apériodique, 21 état périodique, 21 évolution, 11 fitness, 191 fonction aléatoire de comptage, 134 formule d’Ewens, 217 formule d’Itô, 79 génétique des populations, 12 gamète, 191 générateur infinitésimal d’un processus de diffusion, 82 générateur infinitésimal d’un processus markovien de saut, 142 allèles, 191 arrières absorbantes, 33 avantage sélectif, 191 barrières réfléchissantes, 36 chaîne de Bienaymé-Galton-Watson, 95 chaîne de Markov de vie et de mort, 92 chaîne de Markov en temps continu, 131 Chaîne de Markov incluse, 145 classe, 20 coalescent avec mutation, 213 coalescent de Kingman, 207 convergence en loi au sens des marginales de dimension finie, 43 convergence en loi au sens des marginales fini-dimensionnelles, 43 critère de continuité de Kolmogorov, 46 densité-dépendance, 93 diffusion de Fisher-Wright avec mutation, 201, 202 diffusion de Fisher-Wright avec mutation et sélection, 203 diffusion de Fisher-Wright avec sélection, 203 diploïde, 191 dynamique des populations, 12 filtration, 18 filtration engendrée par un processus continu, 50 haploïde, 191 intégrale stochastique, 68 la propriété de branchement, 97 le principe de réflexion, 62 lignée, 205 limite de Yaglom, 120 locus, 191 loi de Poisson-Dirichlet, 220 marche aléatoire, 16 martingale, 53 martingale arrêtée, 60 matrice de transition, 132 modèle de Hardy-Weinberg, 192 modèle de Wright-Fisher, 193 modèle de proie-prédateur, 171 modèle de Wright-Fisher avec mutation, 199 modèle de Wright-Fisher avec sélection, 199 modèle du restaurant chinois, 214 modèle neutre, 193 modèle écologique de Hubbell, 215 mouvement brownien, 40 mouvement brownien d-dimensionnel, 52 222 INDEX probabilité quasi-stationnaire, 119 processus adapté, 53 processus aléatoire, 38 processus de naissance et mort avec immigration, 157 processus de branchement binaire, 148 processus de branchement en temps continu, 148 processus de branchement multitype, 112 processus de Markov, 50 processus de Markov homogène en temps, 50 processus de naissance et mort, 156 processus de naissance et mort linéaire, 157 processus de naissance et mort logistique, 157 processus de Poisson, 134 processus de Poisson composé, 141 processus de saut, 130 processus de Yule, 157 processus markovien de saut, 131 processus ponctuel, 133 processus à accroissements indépendants et stationnaires, 39 propreété de branchement, 150 propriété de Markov, 17 propriété de Markov forte, 23 récurrence, 28 semi-groupe de transition d’un processus de Markov, 51 solution d’une EDS, 72 stochasticité démographique, 170 systèmes de Lotka-Volterra, 171 taux de saut, 143 taux de transition, 143 temps d’arrêt, 23, 58 temps d’atteinte, 58 théorème d’arrêt, 59 transience, 28 un processus de diffusion, 72 223 uniforme intégrabilité, 56 urne de Hoppe, 214 variation quadratique du mouvement brownien, 48 équation de Chapman-Kolmogorov, 133 équation de Feller, 169 équation de Feller logistique, 169 équation de Fokker-Planck, 82, 145 équation de Kolmogorov progressive, 145 équation de Kolmogorov rétrograde, 144 équation de la chaleur, 52 équation différentielle stochastique, 67 équation logistique, 168 équation malthusienne, 167 équation progressive, 82 équation rétrograde, 82 événement de coalescence, 205 224 INDEX Bibliographie [1] L.J.S. Allen. An Introduction to Stochastic Processes with Applications to Biology. Second edition. CRC Press, Chapman & Hall/CRC. 2011 [2] E.S. Allman, J.A. Rhodes. Mathematical Models in Biology : An Introduction. Cambridge Univ. Press, Cambrifdge, U.K., 2004. [3] K.B. Athreya, P.E. Ney. Branching Processes, Springer 1972. [4] N. Bacaer. Histoires de mathématiques et de populations. Le sel et le fer, Cassini, 2008. [5] M. Benaïm, N. El Karoui. Promenade aléatoire. Chaînes de Markov et simulations ; martingales et stratégies. Editions de l’Ecole Polytechnique, 2004. [6] P. Billingsley. Probability and Measure, Wiley, New York, 1979. [7] P. Billingsley. Convergence of Probability Measures, Second edition, Wiley, New York, 1999. [8] S. Boi, V. Capasso, D. Morale. Modeling the aggregative behavior of ants of the species Polyergus rufescens. Nonlinear Analysis 1, 163–176, 2000. [9] P. Cattiaux, D. Chafaï, S. Motsch. Asymptotic analysis and diffusion limit of the persistent Turning Walker model. Asymptot. Anal. 67, no. 1-2, 17–31, 2010. [10] F. Comets, T. Meyre. Calcul stochastique et modèles de diffusion, Dunod, 2006. [11] J.F. Delmas, B. Jourdain. Modèles aléatoires : applications aux sciences de l’ingénieur et du vivant, Springer, 2006. [12] R. Durrett. Probability Models for DNA Sequence Evolution, Springer, 2nde édition, 2007. [13] S.N. Ethier, T.G. Kurtz. Markov Processes, Characterization and Convergence, New York, 1986. [14] W.J. Ewens. Mathematical Population Genetics. Second Edition. Springer, 2004. [15] W. Feller. An introduction to Probability Theory and its Applications, 2 Vol. Wiley, 1957. [16] C. Graham. Chaînes de Markov, Dunod, 2008. [17] P. Haccou, P. Jagers, V.A. Vatutin. Branching Processes : Variation, growth and extinction of populations, Cambridge University Press, 2005. 225 226 BIBLIOGRAPHIE [18] S.P. Hubbell. The unified neutral theory of biodiversity and biogeography, Princeton University Press, Monographs in population biology, 2001. [19] N. Ikeda, S. Watanabe. Stochastic Differential Equationd and Diffusion Processes, 2nd Edition, North-Holland Publishing Company, 1989. [20] J. Istas. Modèles mathématiques pour l’écologie. Cours de l’Ecole Polytechnique. [21] J. Istas. Introduction aux modélisations mathématiques pour les sciences du vivant. Springer, 2000. [22] J. Jacod, P. Protter. L’essentiel en théorie des probabilités. Cassini, 2002. [23] T.H. KJukes, C.R. Cantor. Evolution of protein molecules. In Mammalian Protein Metabolism. Monro, H.HN (eds), 21–132, Academic Press, New York, 1969. [24] I. Karatzas, S.E. Shreve : Brownian Motion and Stochastic Calculus, Second Edition Springer, 1998. [25] S. Karlin, H.M. Taylor. A First Course in Stochastic Processes, Academic Press, 1975. [26] S. Karlin, H.M. Taylor. A Second Course in Stochastic Processes, Academic Press, 1981. [27] M. Kimmel, D.E. Axelrod. Branching Processes in Biology, Springer, 2002. [28] M. Kot. Elements of Mathematical Biology, Cambridge, 2001. [29] T. Lagache, D. Holcman : Effective motion of a virus trafficking inside a biological cell. SIAM J. Appl. Math. 68, no. 4, 1146–1167, 2008. [30] S. Méléard. Aléatoire : Introduction à la théorie et au calcul des probabilités. Editions de l’Ecole Polytechnique, 2010. [31] M. Métivier. Notions fondamentales de la théorie des probabilités, Dunod, 1972. [32] D. Morale, V. Capasso, K. Oelschläger. An interacting particle system modelling aggregation behavior : from individuals to populations. J. Math. Biol. 50, no. 1, 49– 66, 2005. [33] J. Neveu. Bases mathématiques du calcul des probabilités, 2ème édition, Masson, 1970. [34] J. Neveu. Martingales discrètes, Masson, 1972. [35] E. Pardoux, Processus de Markov et Applications, Dunod, 2007. [36] B.L. Phillips, G.P. Brown, J.K. Webb, R. Shine. Invasion and evolution of speed in toads. Nature 439, 803, 2006. [37] P.E. Protter. Stochastic Integration and Differential Equations, 2nd Edition, Springer, 2004 [38] E. Renshaw. Modelling Biological Populations in Space and Time, Cambridge University Press, 1991. [39] D. Revuz, M. Yor. Continuous Martingales and Brownian Motion. Springer, 1991. BIBLIOGRAPHIE 227 [40] D. Serre. Les matrices, Dunod, 2001. [41] P. Tankov, N. Touzi. Modèles stochastiques en finance. Cours de l’Ecole Polytechnique. [42] N. Touzi. Chaînes de Markov et martingales en temps discret. Cours de l’Ecole Polytechnique. [43] T. Tully. A quoi sert de vieillir ? La recherche, 2007.