Algorithmes stochastiques

publicité
Marie Duflo
Algorithmes
stochastiques
Springer
TABLE DES MATIERES
Chapitre 1. MODELES MARKOVIENS
Tension et
stabilité
I. Introduction
II. Stabilité de modèles linéaires
II. 1. Convergence en loi sur un espace polonais
II. 2. Rayon spectral
II.3. Modèle autorégressif et fractale
Exercices l.II
III. Tension de modèles non linéaires
III. 1. Martingale discrète
111.2. Borne supérieure des maxima
111.3. Contraction conditionnelle
Exercices l.III
IV. Chaînes de Markov stables
IV. 1. Chaîne de Markov
IV. 2. Probabilité invariante
IV. 3. Chaîne de Markov stable
IV. 4. Vitesse de convergence vers une loi stationnaire
IV. 5. Récurrence
Exercices l.IV
V. Diffusions stables
V.l. Mouvement Brownien
V.2. Equation différentielle stochastique (EDS)
V.3. Diffusion homogène
V.4. Probabilité invariante d'une diffusion homogène
V.5. Diffusion géométriquement récurrente
Exercices l.V
Références du chapitre 1
3
3
. 3
5
6
9
11
11
14
15
17
18
18
20
22
25
29
30
33
33
35
37
38
39
43
44
Chapitre 2. DES ALGORITHMES STOCHASTIQUES : POURQUOI ? COMMENT ?
Exemples
et outils de base
I. De l'analyse numérique aux algorithmes stochastiques
1.1. Passages à un niveau et minima
1.2. Passage d'une fonction à un niveau fortement attractif
1.3. Minima d'un potentiel
II. Premiers résultats déterministes de convergence
II. 1. Théorème de Robbins-Siegmund déterministe
11.2. Algorithme déterministe à pas décroissant
11.3. Moyennisation de la perturbation
Exercices 2. II
III. Méthode de Robbins-Monro
III. 1. Théorème de Robbins-Siegmund
111.2. Algorithme stochastique à pas décroissant
111.3. Méthode de Robbins-Monro
Exercices 2. III
47
47
48
53
54
54
55
57.
58
59
59
60
61
63
Table des matières
IV. Estimation et
IV. 1. Estimateurs
IV. 2. Estimateurs
IV. 3. Estimateurs
XI
prédiction
•
du minimum de contraste
récursifs
du minimum de contraste approchés
V. Neurones
V.l. Des neurones humains aux réseaux logiques
V.2. Utilisation du principe des sommes pondérées
V.3. Apprentissage selon Kohonen
Exercices 2.V
Références du chapitre 2
64
64
65
67
73
73
74
77
80
81
Chapitre 3. CONVERGENCE D'ALGORITHMES A PAS DECROISSANTS
Propriétés presque sûres - La méthode de l'EDO
I. Introduction
1.1. Cadre étudié
1.2. Attraction, répulsion, cycle
1.3. Méthode de Lyapounov pour l'EDO
1.4. Flot et attracteur
II. Critères de Lyapounov de stabilisation presque sûre
II. 1. Un critère déterministe de Lyapounov
II.2. Stabilisation d'un algorithme stochastique
III. La méthode de l'équation différentielle ordinaire
III. 1. Description de la méthode
III. 2. Retour sur Robbins-Monro
111.3. Enchaînement des valeurs d'adhérence
111.4. Accompagnement de l'algorithme par l'EDO
Exercices 3. III
IV. Pièges
IV. 1. Comment une excitation aléatoire évite les pièges
IV. 2. Suite régressive
IV. 3. Piège répulsif
IV. 4. Piège régulier général
IV. 5. Quelques pièges plus compliqués
Exercices 3. IV
V. Perturbation markovienne
V.l. Petite perturbation markovienne
V.2. Perturbation par une chaîne sur un espace fini
V.3. Estimation d'un modèle de Gibbs paramétrique
Références du chapitre 3
Chapitre 4. CIBLES ATTRACTIVES
Vitesses de convergence
86
86
87
91
93
96
96
97
99
99
102
103
109
115
116
116
117
120
124
126
129
131
131
132
136
139
en loi - La méthode de l'EDS
I. Tension
,
1.1. Stabilisation d'une suite réelle
1.2. Pas réguliers
1.3. Critères de tension
Exercice 4.1
II. La méthode de l'équation différentielle stochastique
II. 1. Convergence en loi de processus continus
144
144
145
146
149
150
150
XII
Table des matières
11.2. Méthode de l'EDS pour un algorithme fortement perturbé
III. Vitesse de convergence vers une cible attractive
III.l. Cible attractive presque régulière
III. 2. Efficacité
III.3. Moyennisation de l'algorithme
Exercices 4. III
Références du chapitre 4
151
160
160
165
168
171
173
Chapitre 5. VITESSES EN GRANDES DEVIATIONS
Introduction
I. Principe de grandes déviations
1.1. Taux et principes de grandes déviations
1.2. Grandes déviations pour des lois de Gibbs
1.3. Propriétés simples des grandes déviations
.
.
176
177
177
179
181
1.4. Fonctions de taux usuelles sur R
1.5. Fonctions de taux usuelles pour les processus cad-lag
Exercices 5.1
II. Tension exponentielle
II.l.' Critère de compacité en grandes déviations
183
186
189
191
191
H. 2. Grandes déviations sur R
11.3. Grandes déviations pour des processus continus
II. 4. Grandes déviations pour des processus cad-lag
II. 5. Principe de grande déviations uniformes
III. Diffusions faiblement perturbées
111.1. Mouvement Brownien
111.2. Diffusions à petites perturbations
IV. Grandes déviations pour des algorithmes
IV. 1. PGD pour une suite régressive
IV. 2. PGD pour un algorithme à pas fixe ou décroissant
IV. 3. Convergence vers un attracteur asymptotiquement stable
Exercices 5. IV
Références du chapitre 5
197
198
202
206
208
208
208
215
215
219
223
225
227
Chapitre 6. RECUIT SIMULE SUR UN ESPACE FINI
I. Algorithmes markoviens et recuit sur un espace fini
1.1. Loi de Gibbs
1.2. Chaînes de Markov avec effet moyen de Gibbs
1.3. Machine de Boltzmann
1.4. Algorithmes génétiques
Exercices 6.1
II. Etude précise des chaînes de Markov sur un espace fini
11.1. Algèbre linéaire et chaînes de Markov
11.2. Graphes et chaînes de Markov
11.3. Distances entre probabilités
II. 4. Chaîne de Markov récurrente réversible
11.4. Chaînes réversibles associées à une chaîne récurrente
Exercices 6. II
III. Famille exponentielle de chaînes de Markov
III.l. Famille exponentielle irréductible
231
231
233
237
241
244
246
246
247
249
250
253
254
255
255
Table des matières
III. 2. Famille exponentielle réversible ou réversibilisée
III.3. Exemples
Exercices 6.III
IV. Recuit simulé
IV. 1. Présentation
IV. 2. Recuit simulé par étapes
IV.3. Modèle markovien exponentiel à paramètre croissant
Exercices 6.IV
Références du chapitre 6
XIII
258
262
263
264
264
267
268
271
272
CHAPITRE 7. RECUIT SIMULE VECTORIEL
I. Algorithme vectoriel markovien
Exercices 7.1.
II. Diffusion du gradient
II.l. Potentiel et loi de Gibbs
II. 2. Diffusion à grande dérive
II.3. Grandes déviations pour l'EDS du gradient
à petite perturbation
III. Recuit simulé en temps continu
III.l. Diffusion du gradient à perturbation lentement
décroissante
III. 2. Tension
111.3. Diffusion de dérive lentement croissante
111.4. Gradient stochastique avec recuit
111.5. Vitesse de convergence en loi du recuit simulé
Exercice 7. III
IV. Algorithme du gradient avec recuit (temps discret)
Exercices 7. IV
Références du chapitre 7
277
279
280
280
282
282
287
287
289
290
292
295
300
301
308
309
NOTATIONS ET CONVENTIONS
311
INDEX
313
Téléchargement