Algorithmes
Massih-Reza AMINI
Apprentissage
machine
de la théorie à la pratique
Concepts fondamentaux
en Machine Learning
Préface de Francis Bach
© Groupe Eyrolles, 2015, ISBN : 978-2-212-13800-9
livre 20 décembre 2014 11:28 Page vii
Table des matières
Table des figures .................................................................... xi
Liste des algorithmes ............................................................... xvi
Notations .............................................................................. xvii
Avant-propos ........................................................................ 1
Concepts étudiés ................................ 1
Organisation du livre .............................. 3
C 
Introduction à la théorie de l’apprentissage ................................. 5
1.1 Minimisation du Risque Empirique .................... 7
1.1.1 Hypothèse et définitions ......................... 7
1.1.2 Énoncé du principe ........................... 9
1.2 Consistance du principe MRE ...................... 9
1.2.1 Estimation de l’erreur de généralisation sur un ensemble de test ...... 12
1.2.2 Borne uniforme sur l’erreur de généralisation ............... 13
1.2.3 Minimisation du risque structurel .................... 23
1.3 Borne sur l’erreur de généralisation dépendante des données ....... 25
1.3.1 Complexité de Rademacher ....................... 25
1.3.2 Lien entre la complexité de Rademacher et la dimension VC ........ 26
1.3.3 Différentes étapes d’obtention d’une borne de généralisation avec la com-
plexité de Rademacher .......................... 29
1.3.4 Propriétés de la complexité de Rademacher ................ 34
livre 20 décembre 2014 11:28 Page viii
Apprentissage machine, de la théorie à la pratique
C 
Algorithmes d’optimisation convexe sans contrainte ...................... 37
2.1 Algorithme du gradient .......................... 41
2.1.1 Mode batch ............................... 41
2.1.2 Mode en-ligne ............................. 43
2.2 Méthode de quasi-Newton ........................ 45
2.2.1 Direction de Newton .......................... 45
2.2.2 Formule de Broyden-Fletcher-Goldfarb-Shanno ............. 46
2.3 Recherche linéaire ............................. 50
2.3.1 Conditions de Wolfe ........................... 50
2.3.2 Algorithme de recherche linéaire basé sur une stratégie de retour en arrière .56
2.4 Méthode du gradient conjugué ...................... 57
2.4.1 Directions conjuguées .......................... 58
2.4.2 Algorithme du gradient conjugué ..................... 60
C 
Classification bi-classes ........................................................... 63
3.1 Perceptron ................................. 64
3.1.1 éorème de convergence du perceptron ................. 67
3.1.2 Perceptron à marge et lien avec le principe MRE ............. 69
3.2 Adaline ................................... 71
3.2.1 Lien avec la régression linéaire et le principe MRE ............ 71
3.3 Régression logistique ........................... 73
3.3.1 Lien avec le principe MRE ........................ 74
3.4 Séparateurs à vaste marge ......................... 76
3.4.1 Marge dure ............................... 76
3.4.2 Marge souple .............................. 82
3.4.3 Borne de généralisation à base de marge ................. 84
3.5 Adaboost .................................. 88
3.5.1 Lien avec le principe MRE ........................ 90
3.5.2 Échantillonnage par rejet ......................... 92
3.5.3 Étude théorique ............................. 93
C 
Classification multi-classes ....................................................... 99
4.1 Formalisme ................................ 100
4.1.1 Erreurs de classification ......................... 100
4.1.2 Borne sur l’erreur de généralisation .................... 101
4.2 Approches pures ou non agrégées ..................... 104
4.2.1 Séparateurs à vaste marge multi-classes .................. 105
4.2.2 AdaBoost multi-classes ......................... 110
4.2.3 Perceptron multi-couches ........................ 113
4.3 Modèles combinés à base des algorithmes binaires ............ 118
viii
livre 20 décembre 2014 11:28 Page ix
Table des matières
4.3.1 Un contre tous ............................. 118
4.3.2 Un contre un .............................. 119
4.3.3 Codes correcteurs d’erreur ........................ 121
C 
Apprentissage semi-supervisé ................................................... 123
5.1 Cadre non supervisé et hypothèses de base ................ 124
5.1.1 Mélange de densités ........................... 124
5.1.2 Estimer les paramètres du mélange .................... 125
5.1.3 Hypothèses de base en apprentissage semi-supervisé ........... 133
5.2 Méthodes génératives ........................... 135
5.2.1 Extension des critères à base de vraisemblance au cas semi-supervisé .... 136
5.2.2 Algorithme CEM semi-supervisé .................... 136
5.2.3 Application : apprentissage semi-supervisé d’un classifieur Naive Bayes ... 138
5.3 Méthodes discriminantes ......................... 141
5.3.1 Algorithme auto-apprenant ....................... 141
5.3.2 Séparateurs à vaste marge transductifs .................. 144
5.3.3 Borne transductive sur l’erreur du classifieur de Bayes ........... 147
5.3.4 Apprentissage multi-vues basé sur le pseudo-étiquetage .......... 151
5.4 Méthodes graphiques ........................... 153
5.4.1 Propagation des étiquettes ........................ 154
5.4.2 Marche aléatoire markovienne ...................... 157
C 
Apprentissage de fonctions d’ordonnancement............................ 161
6.1 Formalisme ................................ 162
6.1.1 Fonctions derreur dordonnancement ................... 162
6.1.2 Ordonnancement d’instances ....................... 166
6.1.3 Ordonnancement d’alternatives ...................... 167
6.2 Approches ................................. 170
6.2.1 Par point ................................ 170
6.2.2 Par paire ................................ 177
6.3 Apprentissage avec des données interdépendantes ............ 188
6.3.1 Borne de test .............................. 190
6.3.2 Borne de généralisation ......................... 190
6.3.3 Estimation des bornes pour quelques exemples d’application ........ 197
A A
Rappels de probabilités ........................................................... 203
A.1 Mesure de probabilité ........................... 203
A.1.1 Espace probabilisable .......................... 203
A.1.2 Espace probabilisé ............................ 204
A.2 Probabilité conditionnelle ......................... 205
ix
livre 20 décembre 2014 11:28 Page x
Apprentissage machine, de la théorie à la pratique
A.2.1 Formule de Bayes ............................ 205
A.2.2 Indépendance en probabilité ....................... 207
A.3 Variables aléatoires réelles ......................... 207
A.3.1 Fonction de répartition ......................... 208
A.3.2 Espérance et variance d’une variable aléatoire ............... 209
A.3.3 Inégalités de concentration ........................ 210
A B
Codes programmes ................................................................ 215
B.1 Structures de données ........................... 215
B.1.1 Base de données ............................. 215
B.1.2 Structure des hyper-paramètres ...................... 216
B.2 Structure pour une représentation creuse ................. 217
B.3 Lancement des programmes ........................ 219
B.4 Codes ................................... 221
B.4.1 Algorithme BGFS (chapitre 2, section 2.2.2) ............... 221
B.4.2 Recherche linéaire (chapitre 2, section 2.3) ................ 224
B.4.3 Gradient conjugué (chapitre 2, section 2.4) ................ 226
B.4.4 Perceptron (chapitre 3, section 3.1) .................... 228
B.4.5 Adaline (chapitre 3, section 3.2) ..................... 229
B.4.6 Régression logistique (chapitre 3, section 3.3) ............... 230
B.4.7 AdaBoost (chapitre 3, section 3.5) .................... 232
B.4.8 AdaBoost M2 (chapitre 4, section 4.2.2) ................. 235
B.4.9 Perceptron multi-couches (chapitre 4, section 4.2.3) ............ 238
B.4.10 K-moyennes (chapitre 5, section 5.1.2) .................. 241
B.4.11 Naïve-Bayes semi-supervisé (chapitre 5, section 5.2.3) ........... 243
B.4.12 Auto-apprentissage (chapitre 5, section 5.3.1) ............... 246
B.4.13 Auto-apprentissage à une passe (chapitre 5, section 5.3.1) ......... 249
B.4.14 PRank (chapitre 6, section 6.2.1) ..................... 250
B.4.15 RankBoost (ordonnancement bipartite - chapitre 6, section 6.2.2) ..... 252
Bibliographie ......................................................................... 255
Index ................................................................................... 267
x
1 / 5 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !