Ecole d’été STIC 2008
Sousse, 14 - 18 juillet 2008
******************************************************
Programme du Thème 2 :
******************************************************
Cours 2.1 : du lundi 14 au Jeudi 17/07/2008
Apprentissage et traitement de données numériques
Conférenciers :
Frederic Alexandre Hervé Frezza Buet Laurent Bougrain
----------------------------------------
Cours : L'inférence inductive sur des données numériques
Nous commencerons par situer le cours en présentant les différentes formes d'apprentissage
automatique (inférence inductive, déductive, abductive, apprentissage par coeur), les tâches à
apprendre (segmentation, visualisation, compression, régression, discrimination, association)
et les méthodes de modélisation (apprentissage non supervisé, supervisé, apprentissage par
renforcement, classification à une classe).
Cours : Le processus d'extraction de connaissance
Les méthodes d'apprentissage automatique ne constituent qu'une étape du processus
d'extraction de connaissance. La phase en amont de préparation des données (sélection,
transformations, recodages) et en aval d'analyse des résultats (matrice de confusion, intervalle
de confiance, faux positifs) seront détaillées.
Cours : Performances en généralisation
Le modèle obtenu à partir d'un échantillon de données est-il valable pour de nouvelles
données ? Nous aborderons des notions théoriques de l'apprentissage statistique (risque réel,
risque empirique, biais ou décomposition biais-variance, principes de minimisation du risque
empirique, bornes) et des techniques pratiques pour évaluer et améliorer les performances en
généralisation (validation croisée, Monte-Carlo, régularisation)
cours : Modèles linaires
Nous commencerons notre présentation des méthodes de modélisation par des méthodes
linéaires (classifieur naïf de Bayes, Algorithme de Ho-Kashap, séparation linéaire, descente
de gradient)
cours : Arbres de décision (pour la discrimination ou la régression)
-------------------------------------------------
Cours : Les méthodes de quantification vectorielle
principe (mesure de distorsion etc.), cellules de Voronoï, diagramme de Delaunay.
Algorithme de Llyod, des centres mobiles. Notion de conservation de topologie : Cartes auto-
organisatrices de Kohonen, neural gas, growing neural gas.
TP : Les réseaux connexionnistes supervisés
---------------------------
Cours : Les réseaux connexionnistes supervisés
Réseaux à couches: Learning Vector Quantization (LVQ), Radial Basis Functions (RBF),
Multi-Layer Perceptron (MLP) et rétropropagation du gradient.
TP : Les réseaux connexionnistes supervisés
---------------------------
Cours : Les méthodes à noyaux
Séparateurs à vaste marge, approche Lagrangienne, Kernel Trick. Exemples de noyaux pour
le texte, présentations d'autres SVM (régression, smallest enclosing sphere).
TP : Les méthodes à noyaux
---------------------------
Cours : Combinaison de modèles (parallèle ou incrémentale, bagging, boosting, arcing,
adaboost, neural ensemble)
Cours : Sélection de variables (avec ou sans modèle, filtrage, élagage).
TP : synthèse (méthodes et outils logiciels)
Cours 2.2 : Vendredi 18/07/2008
Systèmes Multi-agents et traitement des données
numériques
Conférenciers :
Lilia RJEB ZAOUALI (TIM ISSATSo) : [email protected]
Cours :
Fondements des SMA
Apprentissage dans les SMA
Les plateformes-SMA
Les domaines d'application des SMA
Travaux pratiques et démonstrations
Création et conception d'un SMA
Applications réelles
* Segmentation volumique d'images
* Classification des états de vigilance
* Modélisation comportementale
1 / 2 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !