3.3 Analyse Factorielle Discriminante (AFD) . . . . . . . . . . . . . . . . 36
3.3.1 Principe .............................. 36
3.3.2 Exercice .............................. 36
3.4 Exercice reliant classification et régression . . . . . . . . . . . . . . . 38
4 Rappels sur la régression 40
4.1 Cadre ................................... 40
4.2 Des échantillons simples à manipuler . . . . . . . . . . . . . . . . . . 41
4.3 Modèle gaussien et maximum de vraisemblance . . . . . . . . . . . . 41
4.3.1 Modèlegaussien.......................... 41
4.3.2 Maximum de vraisemblance . . . . . . . . . . . . . . . . . . . 43
4.4 Modèle de régression linéaire simple . . . . . . . . . . . . . . . . . . . 44
4.4.1 Modèle linéaire avec bruits gaussiens . . . . . . . . . . . . . . 44
4.4.2 Moindres carrés linéaires . . . . . . . . . . . . . . . . . . . . . 45
4.5 Bilan vis-à-vis de l’apprentissage . . . . . . . . . . . . . . . . . . . . . 46
4.6 Exercice .................................. 47
5 Approximations de l’EPE 49
5.1 Estimateur empirique de l’EPE . . . . . . . . . . . . . . . . . . . . . 49
5.1.1 Cadre ............................... 49
5.1.2 Propriétés de l’estimateur du risque empirique . . . . . . . . . 50
5.1.3 Du bon usage du risque empirique . . . . . . . . . . . . . . . . 51
5.2 Validationcroisée............................. 52
5.2.1 Validation croisée, "K-fold" . . . . . . . . . . . . . . . . . . . 52
5.2.2 Validation croisée, "Leave-One-Out" . . . . . . . . . . . . . . 52
5.2.3 Variance du score de validation croisée . . . . . . . . . . . . . 53
5.3 Exercice .................................. 53
6 Solutions de l’EPE et méthodes dérivées 54
6.1 Solution de l’EPE pour la régression . . . . . . . . . . . . . . . . . . 54
6.1.1 Espérance conditionnelle . . . . . . . . . . . . . . . . . . . . . 54
6.1.2 Méthode des k plus proches voisins (kppv) . . . . . . . . . . . 55
6.1.3 Fléau de Bellman ("Curse of dimensionality") . . . . . . . . . 56
6.2 Solution de l’EPE pour la classification . . . . . . . . . . . . . . . . . 57
6.2.1 Solution pour une perte générale . . . . . . . . . . . . . . . . 58
6.2.2 Solution pour une perte non-informative . . . . . . . . . . . . 58
6.3 Exercices.................................. 59
6.3.1 Solution de l’EPE pour la régression avec une perte Lp. . . . 59
6.3.2 Classifieur binaire optimal . . . . . . . . . . . . . . . . . . . . 60
6.3.3 Classification aux kppv . . . . . . . . . . . . . . . . . . . . . . 61
6.3.4 Classification Bayésienne . . . . . . . . . . . . . . . . . . . . . 63
7 Compromis Biais-Variance 64
7.1 Décomposition de l’EPE . . . . . . . . . . . . . . . . . . . . . . . . . 64
7.1.1 Cadre ............................... 64
7.1.2 Décompositions bruit-biais-variance . . . . . . . . . . . . . . . 65
7.1.3 Illustration pratique . . . . . . . . . . . . . . . . . . . . . . . 66
3