Apprentissage et Fouilles de données
Salma Najar 20 Mars 2008
FilterBoost: Regression et Classification
On Large Datasets
Joseph K. Bradley
et
Robert E.Schapire
Plan
Introduction
Filterboost
Analyse
Expérimentations
Conclusion
Introduction Travaux antérieurs Problématique & motivations Contribution Conclusion
Introduction
Introduction Analyse FilterBoost Expérimentations Conclusion
Introduction Problématique Motivation
Batch Boosting
Weak Learner
S: Ensemble fixe d’exemple d’entrainement
Après T ronds
-
+
--
+
Booster Hypothèse Finale
H
Dt
εtαt
ht
Dt
Introduction Travaux antérieurs Problématique & motivations Contribution Conclusion
Problématique
Batch Booster accède à l’ensemble entier des exemples
d’entrainement
Traitement très cher pour les larges bases de données.
Limite son application: Problème de classification des sites en
ligne par exemple
Limite son efficacité: A chaque rond Un traitement dans la
base de données entière.
Introduction Problématique Motivation
Introduction Analyse FilterBoost Expérimentations Conclusion
Introduction Travaux antérieurs Problématique & motivations Contribution Conclusion
Motivation
Le but principal :
Rendre le boosting faisable dans de large base de données
Idée principle:
Utiliser un flux de données au lieu d’utiliser la base de données en
entier.
Entrainer un nouveau sous ensemble de données à chaque rond.
Introduction Problématique Motivation
Introduction Analyse FilterBoost Expérimentations Conclusion
FilterBoost
1 / 15 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !