Ré-échantillonage en apprentissage automatique Fabrice Rossi 2017

Ré-échantillonage en apprentissage
automatique
Fabrice Rossi
Université Paris 1 Panthéon Sorbonne
2017
Plan
Introduction
Compromis biais variance
Leave-one-out
Validation croisée
Bootstrap
Plan
Introduction
Compromis biais variance
Leave-one-out
Validation croisée
Bootstrap
Estimation de performances
Problème fondamental de l’apprentissage
Idétermination des paramètres d’un modèle
Icomparaison de modèles (méta-paramètres)
Iprévision du comportement futur
Difficile
Iestimation biaisée : le meilleur modèle a toujours les meilleures
performances
I
données = vrai modèle + bruit : un modèle « trop bon » apprend le
bruit
Igaranties mathématiques trop lâches
Solution simple
Découpage des données
Iensemble d’apprentissage : estimation des paramètres
Iensemble de validation : comparaison de modèles (réglage des
méta-paramètres)
Iensemble de test : évaluation finale du modèle retenu
Limitations
Inécessite d’être riche en données
Icompromis entre les qualités des différentes estimations
(paramètres vs méta-paramètres vs prévision des performances
futures)
Ieffets du découpage
1 / 121 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !