ALGORITHMES STOCHASTIQUES MARIE DUFLO TABLE DES MATIERES Chapitre 1. MODELES MARKOVIENS Tension et stabilité I. Il. Introduction Stabilité de modèles linéaires II.1. Convergence en loi sur un espace polonais Il.2. Rayon spectral Il.3. Modèle autorégressif et fractale Exercices 1. Il III. Tension de modèles non linéaires III.1. Martingale discrète III.2. Borne supérieure des maxima III.3. Contraction conditionnelle Exercices 1. III IV. Chaînes de Markov stables IV.1. Chaîne de Markov IV.2. Probabilité invariante IV.3. Chaîne de Markov stable IV.4. Vitesse de convergence vers une loi stationnaire IV.5. Récurrence Exercices 1. IV V. Diffusions stables V.1. Mouvement Brownien V.2. Equation différentielle stochastique tEDS) V.3. Diffusion homogène V.4. Probabilité invariante d'une diffusion homogène V.5. Diffusion géométriquement récurrente Exercices 1. V Références du chapitre 1 Chapitre 2. 3 3 3 5 6 9 11 11 14 15 17 18 18 20 22 25 29 30 33 33 35 37 38 39 43 44 DES ALGORITHMES STOCHASTIQUES: POURQUOI? COMMENT? Exemples et outils de base I. Il. De l'analyse numérique aux algorithmes stochastiques I.1. Passages à un niveau et minima I.2. Passage d'une fonction à un niveau fortement attractif I.3. Minima d'un potentiel Premiers résultats déterministes de convergence 47 47 48 53 54 Il. Premiers résultats déterministes de convergence II.1. Théorème de Robbins-Siegmund déterministe Il.2. Algorithme déterministe à pas décroissant Il.3. Moyennisation de la perturbation Exercices 2. Il III. Méthode de Robbins-Monro III.1. Théorème de Robbins-Siegmund III.2. Algorithme stochastique à pas décroissant III.3. Méthode de Robbins-Monro Exercices 2. III IV. Estimation et prédiction IV.1. Estimateurs du minimum de contraste IV.2. Estimateurs récursifs IV.3. Estimateurs du minimum de contraste approchés V. Neurones V.1. Des neurones humains aux réseaux logiques V.2. Utilisation du principe des sommes pondérées V.3. Apprentissage selon Kohonen Exercices 2. V Références du chapitre 2 Chapitre 3. CONVERGENCE D'ALGORITHMES A PAS DECROISSANTS Propriétés presque sures - La méthode de l'EDO I. Introduction I.1. Cadre étudié I.2. Attraction, répulsion, cycle I.3. Méthode de Lyapounov pour l'EDO I.4. Flot et attracteur II. Critères de Lyapounov de stabilisation presque sure II.1. Un critère déterministe de Lyapounov II.2. Stabilisation d'un algorithme stochastique III. La méthode de l'équation différentielle ordinaire III.1. Description de la méthode III.2. Retour sur Robbins-Monro III.3. Enchaînement des valeurs d'adhérence III.4. Accompagnement de l'algorithme par l'EDO Exercices 3. III IV. Pièges IV.1. Comment une excitation aléatoire évite les pièges IV.2. Suite régressive IV.3. Piège répulsif IV.4. Piège régulier général IV.5. Quelques pièges plus compliqués Exercices 3. IV V. Perturbation markovienne V.1. Petite perturbation markovienne V.2. Perturbation par une chaîne sur un espace fini V.3. Estimation d'un modèle de Gibbs paramétrique Références du chapitre 3 Chapitre 4. 54 54 55 57 58 59 59 60 61 63 64 64 65 67 73 73 74 77 80 81 86 86 87 91 93 96 96 97 99 99 102 103 109 115 116 116 117 120 124 126 129 131 131 132 136 139 CIBLES ATTRACTIVES Vitesses de convergence en loi - La méthode de l'EDS I. II. III. Tension I.1. Stabilisation d'une suite réelle I.2. Pas réguliers I.3. Critères de tension Exercice 4.I La méthode de l'équation différentielle stochastique II.1. Convergence en loi de processus continus II.2. Méthode de l'EDS pour un algorithme fortement perturbé 144 144 145 146 149 150 150 151 Vitesse de convergence vers une cible attractive III.1. Cible attractive presque régulière 160 160 III.2. Efficacité III.3. Moyennisation de l'algorithme Exercices 4.III Références du chapitre 4 165 168 171 173 Chapitre 5. VITESSES EN GRANDES DEVIATIONS Introduction I. Principe de grandes déviations I.1. Taux et principes de grandes déviations 176 177 177 I.1. Taux et principes de grandes déviations I.2. Grandes déviations pour des lois de Gibbs I.3. Propriétés simples des grandes déviations I.4. Fonctions de taux usuelles sur  d I.5. Fonctions de taux usuelles pour les processus cad-Iag Exercices 5.1 II. Tension exponentielle II.1. Critère de compacité en grandes déviations II.2. Grandes déviations sur  d II.3. Grandes déviations pour des processus continus II.4. Grandes déviations pour des processus cad-Iag II.5. Principe de grande déviations uniformes III. Diffusions faiblement perturbées III.1. Mouvement Brownien III.2. Diffusions à petites perturbations IV. Grandes déviations pour des algorithmes IV.1. PGD pour une suite régressive IV.2. PGD pour un algorithme à pas fixe ou décroissant IV.3. Convergence vers un attracteur asymptotiquement stable Exercices 5. IV Références du chapitre 5 Chapitre 6. RECUIT SIMULE SUR UN ESPACE FINI I. Algorithmes markoviens et recuit sur un espace fini I.1. Loi de Gibbs I.2. Chaînes de Markov avec effet moyen de Gibbs I.3. Machine de Boltzmann I.4. Algorithmes génétiques Exercices 6.I II. Etude précise des chaînes de Markov sur un espace fini II.1. Algèbre linéaire et chaînes de Markov II.2. Graphes et chaînes de Markov II.3. Distances entre probabilités II.4. Chaîne de Markov récurrente réversible II.4. Chaînes réversibles associées à une chaîne récurrente Exercices 6.II III. Famille exponentielle de chaînes de Markov III.1. Famille exponentielle irréductible III.2. Famille exponentielle réversible ou réversibilisée III.3. Exemples Exercices 6. III IV. Recuit simulé IV.1. Présentation IV.2. Recuit simulé par étapes IV.3. Modèle markovien exponentiel à paramètre croissant Exercices 6. IV Références du chapitre 6 CHAPITRE 7. II. Algorithme vectoriel markovien Exercices 7.I Diffusion du gradient II.1. Potentiel et loi de Gibbs II.2. Diffusion à grande dérive II.3. Grandes déviations pour l'EDS du gradient à petite perturbation Recuit simulé en temps continu III.1. Diffusion du gradient à perturbation lentement décroissante III.2. Tension III.3. Diffusion de dérive lentement croissante III.4. Gradient stochastique avec recuit III.5. Vitesse de convergence en loi du recuit simulé Exercice 7.III IV. Algorithme du gradient avec recuit (temps discret) Exercices 7. IV Références du chapitre 7 III. NOTATIONS ET CONVENTIONS TOP 231 231 233 237 241 244 246 246 247 249 250 253 254 255 255 258 262 263 264 264 267 268 271 272 RECUIT SIMULE VECTORIEL I. INDEX 177 179 181 183 186 189 191 191 197 198 202 206 208 208 208 215 215 219 223 225 227 277 279 280 280 282 282 287 287 289 290 292 295 300 301 308 309 311