algorithmes stochastiques table des matieres

publicité
ALGORITHMES
STOCHASTIQUES
MARIE DUFLO
TABLE DES MATIERES
Chapitre 1.
MODELES MARKOVIENS
Tension et stabilité
I.
Il.
Introduction
Stabilité de modèles linéaires
II.1.
Convergence en loi sur un espace polonais
Il.2.
Rayon spectral
Il.3.
Modèle autorégressif et fractale
Exercices 1. Il
III.
Tension de modèles non linéaires
III.1.
Martingale discrète
III.2.
Borne supérieure des maxima
III.3.
Contraction conditionnelle
Exercices 1. III
IV.
Chaînes de Markov stables
IV.1. Chaîne de Markov
IV.2. Probabilité invariante
IV.3. Chaîne de Markov stable
IV.4. Vitesse de convergence vers une loi stationnaire
IV.5. Récurrence
Exercices 1. IV
V.
Diffusions stables
V.1.
Mouvement Brownien
V.2.
Equation différentielle stochastique tEDS)
V.3.
Diffusion homogène
V.4.
Probabilité invariante d'une diffusion homogène
V.5.
Diffusion géométriquement récurrente
Exercices 1. V
Références du chapitre 1
Chapitre 2.
3
3
3
5
6
9
11
11
14
15
17
18
18
20
22
25
29
30
33
33
35
37
38
39
43
44
DES ALGORITHMES STOCHASTIQUES: POURQUOI? COMMENT?
Exemples et outils de base
I.
Il.
De l'analyse numérique aux algorithmes stochastiques
I.1.
Passages à un niveau et minima
I.2.
Passage d'une fonction à un niveau fortement attractif
I.3.
Minima d'un potentiel
Premiers résultats déterministes de convergence
47
47
48
53
54
Il.
Premiers résultats déterministes de convergence
II.1.
Théorème de Robbins-Siegmund déterministe
Il.2.
Algorithme déterministe à pas décroissant
Il.3.
Moyennisation de la perturbation
Exercices 2. Il
III.
Méthode de Robbins-Monro
III.1.
Théorème de Robbins-Siegmund
III.2.
Algorithme stochastique à pas décroissant
III.3.
Méthode de Robbins-Monro
Exercices 2. III
IV.
Estimation et prédiction
IV.1. Estimateurs du minimum de contraste
IV.2. Estimateurs récursifs
IV.3. Estimateurs du minimum de contraste approchés
V.
Neurones
V.1.
Des neurones humains aux réseaux logiques
V.2.
Utilisation du principe des sommes pondérées
V.3.
Apprentissage selon Kohonen
Exercices 2. V
Références du chapitre 2
Chapitre 3.
CONVERGENCE D'ALGORITHMES A PAS DECROISSANTS
Propriétés presque sures - La méthode de l'EDO
I.
Introduction
I.1.
Cadre étudié
I.2.
Attraction, répulsion, cycle
I.3.
Méthode de Lyapounov pour l'EDO
I.4.
Flot et attracteur
II.
Critères de Lyapounov de stabilisation presque sure
II.1.
Un critère déterministe de Lyapounov
II.2.
Stabilisation d'un algorithme stochastique
III.
La méthode de l'équation différentielle ordinaire
III.1.
Description de la méthode
III.2.
Retour sur Robbins-Monro
III.3.
Enchaînement des valeurs d'adhérence
III.4.
Accompagnement de l'algorithme par l'EDO
Exercices 3. III
IV.
Pièges
IV.1. Comment une excitation aléatoire évite les pièges
IV.2. Suite régressive
IV.3. Piège répulsif
IV.4. Piège régulier général
IV.5. Quelques pièges plus compliqués
Exercices 3. IV
V.
Perturbation markovienne
V.1.
Petite perturbation markovienne
V.2.
Perturbation par une chaîne sur un espace fini
V.3.
Estimation d'un modèle de Gibbs paramétrique
Références du chapitre 3
Chapitre 4.
54
54
55
57
58
59
59
60
61
63
64
64
65
67
73
73
74
77
80
81
86
86
87
91
93
96
96
97
99
99
102
103
109
115
116
116
117
120
124
126
129
131
131
132
136
139
CIBLES ATTRACTIVES
Vitesses de convergence en loi - La méthode de l'EDS
I.
II.
III.
Tension
I.1.
Stabilisation d'une suite réelle
I.2.
Pas réguliers
I.3.
Critères de tension
Exercice 4.I
La méthode de l'équation différentielle stochastique
II.1.
Convergence en loi de processus continus
II.2.
Méthode de l'EDS pour un algorithme fortement perturbé
144
144
145
146
149
150
150
151
Vitesse de convergence vers une cible attractive
III.1.
Cible attractive presque régulière
160
160
III.2.
Efficacité
III.3.
Moyennisation de l'algorithme
Exercices 4.III
Références du chapitre 4
165
168
171
173
Chapitre 5. VITESSES EN GRANDES DEVIATIONS
Introduction
I.
Principe de grandes déviations
I.1.
Taux et principes de grandes déviations
176
177
177
I.1.
Taux et principes de grandes déviations
I.2.
Grandes déviations pour des lois de Gibbs
I.3.
Propriétés simples des grandes déviations
I.4.
Fonctions de taux usuelles sur  d
I.5.
Fonctions de taux usuelles pour les processus cad-Iag
Exercices 5.1
II.
Tension exponentielle
II.1.
Critère de compacité en grandes déviations
II.2.
Grandes déviations sur  d
II.3.
Grandes déviations pour des processus continus
II.4.
Grandes déviations pour des processus cad-Iag
II.5.
Principe de grande déviations uniformes
III.
Diffusions faiblement perturbées
III.1.
Mouvement Brownien
III.2.
Diffusions à petites perturbations
IV.
Grandes déviations pour des algorithmes
IV.1. PGD pour une suite régressive
IV.2. PGD pour un algorithme à pas fixe ou décroissant
IV.3. Convergence vers un attracteur asymptotiquement stable
Exercices 5. IV
Références du chapitre 5
Chapitre 6.
RECUIT SIMULE SUR UN ESPACE FINI
I.
Algorithmes markoviens et recuit sur un espace fini
I.1.
Loi de Gibbs
I.2.
Chaînes de Markov avec effet moyen de Gibbs
I.3.
Machine de Boltzmann
I.4.
Algorithmes génétiques
Exercices 6.I
II.
Etude précise des chaînes de Markov sur un espace fini
II.1.
Algèbre linéaire et chaînes de Markov
II.2.
Graphes et chaînes de Markov
II.3.
Distances entre probabilités
II.4.
Chaîne de Markov récurrente réversible
II.4.
Chaînes réversibles associées à une chaîne récurrente
Exercices 6.II
III.
Famille exponentielle de chaînes de Markov
III.1.
Famille exponentielle irréductible
III.2.
Famille exponentielle réversible ou réversibilisée
III.3.
Exemples
Exercices 6. III
IV.
Recuit simulé
IV.1. Présentation
IV.2. Recuit simulé par étapes
IV.3. Modèle markovien exponentiel à paramètre croissant
Exercices 6. IV
Références du chapitre 6
CHAPITRE 7.
II.
Algorithme vectoriel markovien
Exercices 7.I
Diffusion du gradient
II.1.
Potentiel et loi de Gibbs
II.2.
Diffusion à grande dérive
II.3.
Grandes déviations pour l'EDS du gradient à petite perturbation
Recuit simulé en temps continu
III.1.
Diffusion du gradient à perturbation lentement décroissante
III.2.
Tension
III.3.
Diffusion de dérive lentement croissante
III.4.
Gradient stochastique avec recuit
III.5.
Vitesse de convergence en loi du recuit simulé
Exercice 7.III
IV.
Algorithme du gradient avec recuit (temps discret)
Exercices 7. IV
Références du chapitre 7
III.
NOTATIONS ET CONVENTIONS
TOP
231
231
233
237
241
244
246
246
247
249
250
253
254
255
255
258
262
263
264
264
267
268
271
272
RECUIT SIMULE VECTORIEL
I.
INDEX
177
179
181
183
186
189
191
191
197
198
202
206
208
208
208
215
215
219
223
225
227
277
279
280
280
282
282
287
287
289
290
292
295
300
301
308
309
311
Téléchargement